home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #16 / NN_1992_16.iso / spool / bit / listserv / csgl / 616 < prev    next >
Encoding:
Text File  |  1992-07-23  |  6.5 KB  |  135 lines

  1. Comments: Gated by NETNEWS@AUVM.AMERICAN.EDU
  2. Path: sparky!uunet!paladin.american.edu!auvm!DRETOR.DCIEM.DND.CA!RANDALL
  3. Message-ID: <9207240306.AA27653@dretor.dciem.dnd.ca>
  4. Newsgroups: bit.listserv.csg-l
  5. Date:         Thu, 23 Jul 1992 23:06:18 EDT
  6. Sender:       "Control Systems Group Network (CSGnet)" <CSG-L@UIUCVMD.BITNET>
  7. From:         "Hugh D. Gamble" <randall@DRETOR.DCIEM.DND.CA>
  8. Subject:      What is information?
  9. X-To:         CSG-L@vmd.cso.uiuc.edu
  10. Lines: 123
  11.  
  12. [Allan Randall (920723.2100)]
  13.  
  14. From Bill's ISSS talk on information:
  15. <                 Information: a matter of perception
  16. <                          William T. Powers
  17. <...
  18. <Shannon and Weaver examined a physical signal flowing from
  19. <source to destination...information decreases the entropy of the
  20. <receiver...Unfortunately, this is a house of cards and one of
  21. <the bottom cards is imaginary.
  22.  
  23. Ouch! Well I wasn't going to post anything else here until I found
  24. the time to respond to the implicit/explicit hierarchy thread, but
  25. this I can't let pass. The entropic formulation of information
  26. theory, along with the related algorithmic formulation, has a pretty
  27. firm mathematical basis, and has shown itself to be quite useful, so
  28. you will be going some to convince me it is a "house of cards."
  29.  
  30. <Information does not necessarily travel in the same direction as
  31. <physical energy.
  32.  
  33. I think you are confusing the concept of energy and that of entropy.
  34. They are related, but not the same. It is the latter, not the former,
  35. that information theorists associate with information content. There
  36. is no need in traditional information theory for the kind of "net
  37. flow" of energy in the direction from source to destination that you
  38. talk about in your examples, both of which I think are pretty easy to
  39. refute.
  40.  
  41. <If you're reading these words in black print on a piece of white
  42. <paper, you can see immediately what I mean. The energy that flows
  43. <into your eye...comes from the reflection of light off the white
  44. <paper. This energy flows from the page to your retina everywhere
  45. <except where the letters are printed. If the letters are dark
  46. <enough, a net energy flow may actually travel from diffusely
  47. <illuminated points on your retina, through the lens, and to the
  48. <light-absorptive ink on the paper.
  49.  
  50. Okay. Correct me if I'm wrong. Are you suggesting there is a net
  51. flow from my retina to the words on paper, rather than vice-versa?
  52. The "words" on the page are more than just the ink, they include
  53. the white background. The energy from the white background is
  54. what transmits the information to my brain. Just because it is
  55. the ground rather than the figure that I receive as energy is
  56. irrelevant. The energy from the white page is structured in such
  57. a way as to correspond to the ink markings (after all, that's why
  58. I'm able to "reconstruct" the black ink markings from the light I
  59. receive from the white background). This is all perfectly in accord
  60. with traditional information theory. There is no flow of energy in
  61. the "wrong" direction.
  62.  
  63. <Or consider an old-fashioned telegraph...When the key is open, no
  64. <information is traveling. When the key closes in long and
  65. <short patterns, a message in Morse Code is sent to Chicago. The
  66. <dots and dashes represent momentary drains of energy on the
  67. <battery in the central telegraph office in Chicago; the average
  68. <direction of energy flow is from the Chicago office to the short
  69. <circuit in Dodge City, heating the wires along the way.
  70.  
  71. Although I disagree with this as well, it is a better example
  72. than the first one, since here there really does seem at first
  73. glance to be a net flow of energy in the "wrong" direction. The
  74. mistake you are making here is using the energy output of the
  75. battery as the transmitting energy flow. This is incorrect. You
  76. are treating the battery as the information transmitter. But the
  77. battery is NOT the originator of the message. It matters not a
  78. wit whether we consider the battery to be part of the sender or
  79. the receiver. The battery is thus more justifiably considered as
  80. part of the medium of transmission. The message actually comes
  81. from the human being who is putting out the dots and dashes. This
  82. *is* a flow of energy from the human, and *does* decrease the
  83. entropy of the receiver and increase the entropy of the source
  84. (and the universe).
  85.  
  86. Compare what happens to the case of a transmitter that outputs
  87. dots and dashes due to chaotic or random forces in the world
  88. around it. These messages are less ordered, and thus higher
  89. entropy, than the messages put out by the human. The destination
  90. would end up with higher entropy and the source would have lower
  91. entropy than in the case of the human operator.
  92.  
  93. <...the direction of energy flow is unrelated to the direction of
  94. <flow of information, so that concepts like entropy (positive or
  95. <negative) have no actual physical relationship to whatever it is
  96. <that we mean by information.
  97.  
  98. Perhaps not what *you* mean by information, but the entropy concept
  99. is very rigorously defined mathematically, and *is* what most
  100. information theorists, computer scientists and physicists mean when
  101. we speak of information. Shannon himself was very clear in his
  102. original article that he was not giving a "semantic" definition of
  103. information, or "meaning". He quite frankly admitted that this was
  104. not covered by the theory he laid out. It is not entirely clear
  105. to what degree a semantic or a perceptual theory of information
  106. would be built on the concepts of traditional information theory
  107. a la Shannon/Weaver/Chaitin, which does not pretend to speak to such
  108. issues.
  109.  
  110. <When we transmit information, we hope we are transmitting more
  111. <than words; we hope we are transmitting meanings.
  112.  
  113. I have no problem with your tying in perception/control with this
  114. notion of information, and if this is what you want to call
  115. "information," I'm not going to argue over definitions. But what
  116. Shannon and Weaver showed was that there is a key aspect of
  117. communication, which is now usually called information, that is
  118. independant of this "meaning" or semantic content and has nothing
  119. to do with perception. I think they succeeded. I don't think you
  120. have, as yet, given me any reason to doubt this. Your rubber
  121. band experiment merely shows one example of a case where control
  122. is necessary for information to be transmitted. It says nothing
  123. about whether such control is necessary for information
  124. transmission in general. I don't think it is. Give me reason to
  125. believe otherwise.
  126.  
  127. Allan Randall
  128. NTT Systems, Inc.
  129. Toronto, ON
  130.  
  131. PS: I'm actually a lot more favourable to PCT than I appear in
  132. my posts. I find it to be elegant with a lot of explanatory power.
  133. Its just that I'm, as Bill would say, controlling for the higher
  134. error signals.
  135.