home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #16 / NN_1992_16.iso / spool / bit / listserv / csgl / 618 < prev    next >
Encoding:
Text File  |  1992-07-25  |  14.0 KB  |  269 lines

  1. Comments: Gated by NETNEWS@AUVM.AMERICAN.EDU
  2. Path: sparky!uunet!darwin.sura.net!paladin.american.edu!auvm!VAXF.COLORADO.EDU!POWERS_W
  3. X-Envelope-to: CSG-L@vmd.cso.uiuc.edu
  4. X-VMS-To: @CSG
  5. MIME-version: 1.0
  6. Content-transfer-encoding: 7BIT
  7. Message-ID: <01GMQX8HSXSI00008B@VAXF.COLORADO.EDU>
  8. Newsgroups: bit.listserv.csg-l
  9. Date:         Fri, 24 Jul 1992 06:44:57 -0600
  10. Sender:       "Control Systems Group Network (CSGnet)" <CSG-L@UIUCVMD.BITNET>
  11. From:         "William T. Powers" <POWERS_W%FLC@VAXF.COLORADO.EDU>
  12. Subject:      Energy, Entropy, Info
  13. X-To:         CSG-L@vmd.cso.uiuc.edu
  14. Lines: 253
  15.  
  16. [From Bill Powers (920723.2130)]
  17.  
  18. Allan Randall (920723.2100) --
  19.  
  20. ><Information does not necessarily travel in the same direction as
  21. ><physical energy.
  22.  
  23. >I think you are confusing the concept of energy and that of entropy. >They
  24. are related, but not the same. It is the latter, not the former, >that
  25. information theorists associate with information content. There is >no need
  26. in traditional information theory for the kind of "net flow" of >energy in
  27. the direction from source to destination that you talk about >in your
  28. examples, both of which I think are pretty easy to refute.
  29.  
  30. It's been a long time since I studied anything having to do with entropy,
  31. so remarks like yours create instant insecurity. I went back to my old
  32. books, and found in the Handbook of Physics:
  33.  
  34.      The increase in the entropy of a body during an infinitesimal state
  35.      of a reversible process is equal to the infinitesimal amount of
  36.      heat absorbed divided by the absolute temperature of the body. Thus
  37.      for a reversible process
  38.  
  39.                     dS = Q/T
  40.  
  41.  
  42. ... where Q is the infinitesimal quantity of heat.
  43.  
  44. I have seen a somewhat different and more general-seeming definition,
  45.  
  46.                   dS = k(dQ/Q),
  47.  
  48. where dQ is simply a signed amount of energy absorbed and Q is the amount
  49. already present (of the same form). Shroedinger uses this form of
  50. definition in "Order, disorder, and entropy" in _What is life?_
  51.  
  52. It seems clear that the change in entropy is a signed quantity, and that
  53. the sign (for the receiver of the energy) is the same as the sign of the
  54. direction of energy transfer dQ. (But see correction below -- I have this
  55. backward).
  56.  
  57. You say,
  58.  
  59. >The entropic formulation of information theory, along with the related
  60. >algorithmic formulation, has a pretty firm mathematical basis ...
  61.  
  62. A firm mathematical basis does not mean the same thing as a firm physical
  63. basis, and a firm physical basis is not the same thing as a firm
  64. experiential or semantic basis. What do we gain by calling Q "order" and
  65. 1/Q "disorder?" Schroedinger proudly declares that only a physicist can
  66. understand his definition of negative entropy and its relation to order and
  67. disorder. If that is so, then physicists have created a systematic delusion
  68. which can be shared only with people who have been painstakingly trained to
  69. believe in it. We should not assume that everything we ordinarily call
  70. order and disorder is what a physicist would mean by such a term -- for
  71. example, the difference between THEDOG and TDHOEG. What a physicist means
  72. by order is not what other people mean by it, or even what the physicist
  73. means by it when, attempting to make physics explain life, he or she
  74. substitutes the ordinary meaning for the special meaning as if there were
  75. no difference. There is a certain arrogance in this proprietary attitude
  76. toward understanding that has always put me off physics -- even when I was
  77. a physics student.
  78.  
  79. Browsing through my old Buckley, I find Raymond's article on
  80. "Communication, entropy, and life." Here he defines "The rate of increase
  81. of thermodynamic entropy during communication" as
  82.  
  83.       dS/dt = W/T,
  84.  
  85. where "W is the average power expended in the communication device...", a
  86. neat way of avoiding saying which way this power (energy per unit time) is
  87. traveling. The assumption, of course, is that it is traveling into the
  88. receiver. The idea that you can affect a receiver by draining energy from
  89. it never occured to him, or as far as I can tell, any other information
  90. theorist.
  91.  
  92. RE: the telegraph example.
  93.  
  94. >The mistake you are making here is using the energy output of the >battery
  95. as the transmitting energy flow. This is incorrect. You are >treating the
  96. battery as the information transmitter.
  97.  
  98. No, I am only assuming that the battery is the ENERGY source. Information
  99. is transmitted by draining the battery, which is located at the destination
  100. end of the circuit in the first form of my example. So if we include the
  101. battery as part of the black-box receiver in Chicago, it's clear that
  102. during transmission of a message, the wires at the Dodge City end are
  103. warmed when the key is closed (dQ), which increases their entropy by an
  104. amount depending on their initial temperature-energy, Q. The entropy has to
  105. "flow" in the same direction as the energy flow. However, the message
  106. "flows" in the opposite direction.
  107.  
  108. [Here I discovered my error]
  109.  
  110. Actually, now that you pin me down, I realize that I've made a mistake, but
  111. not the one you mention. If a constant current flowing in a wire heats it,
  112. the temperature (Q) rises, and as it does so, with dQ constant, dQ/Q must
  113. be falling. So in fact, entropy flows OPPOSITE to the direction of flow of
  114. energy. I told you it's been a while. All this does is change my examples
  115. so that entropy flows in the reverse direction -- it still doesn't
  116. necessarily flow in the same direction as information.
  117.  
  118. >But the battery is NOT the originator of the message. It matters not a
  119. >wit whether we consider the battery to be part of the sender or the
  120. >receiver. The battery is thus more justifiably considered as part of >the
  121. medium of transmission. The message actually comes from the human >being
  122. who is putting out the dots and dashes. This *is* a flow of >energy from
  123. the human, and *does* decrease the entropy of the receiver >and increase
  124. the entropy of the source (and the universe).
  125.  
  126. This "deduction" depends on insisting that energy DOES flow in the
  127. direction of the message -- you're begging the question. If energy or
  128. negative entropy flow is NOT the same thing as information flow, your
  129. argument is false. You can't (legally) assume your conclusion and then use
  130. it to prove that your conclusion is true. The battery is NOT, as you say,
  131. the originator of the message. But it IS the originator of the energy flow,
  132. and entropy flows in the opposite direction to energy.
  133.  
  134. (By the way, if the telegraph operator is using a bug, there is no longer a
  135. single movement for each dot or dash, because the operator can simply hold
  136. the bug paddle sideways until the correct number of consecutive dots or
  137. dashes is perceived. And there's no energtic, or entropic, difference for
  138. the operator between making a dot and making a dash)
  139.  
  140. So in this case the entropy and the information are travelling in the same
  141. direction. By moving the battery to the sending end, you can make the
  142. entropy and information flows go the opposite way (as normally assumed in
  143. transmitting messages by wire, sound, light, or radio waves by sending
  144. energy through a medium from a transmitter to a receiver).
  145.  
  146. >Compare what happens to the case of a transmitter that outputs dots and
  147. >dashes due to chaotic or random forces in the world around it. These
  148. >messages are less ordered, and thus higher entropy, than the messages >put
  149. out by the human.
  150.  
  151. Why are they less ordered, when they are telling us in detail about some
  152. very complex processes that present an endlessly new pattern? Does a
  153. message contain less information when it is about a more complex process?
  154. This concept confuses the atomic type of random-seeming disorder with
  155. macroscopic disorder, a completely different proposition. I consider a
  156. phase plot of a chaotic system to contain information.
  157.  
  158. The relation of order to entropy at any level but the atomic is an analogy,
  159. not an equivalence. "Order" is an experiential term based on our capacity
  160. to perceive pattern and sequence; physicists have attempted to appropriate
  161. it to mean only the reciprocal of statistical disorder, and then have
  162. turned around to say that this restricted meaning is the ONLY meaning, thus
  163. invalidating the ability to perceive pattern and sequence. Physicists, like
  164. behaviorists and other psychologists, thus have blamed our ignorance on
  165. nature. The moment they did that, physics ceased to progress and started to
  166. disintegrate (expensively) into particles.
  167.  
  168. For a clearer example, just think of transmitting a dot-dash message by
  169. touching an ice-cube to someone's skin. The body loses heat to the ice-
  170. cube, decreasing the ice-cube's entropy and increasing that of the body and
  171. its "cold receptors" -- I hope I still have my signs right. Information
  172. being defined as the negative of the entropy change, the formal definitions
  173. of information theory would say that we are taking information out of the
  174. body and putting it into the ice-cube. If instead we use a warm soldering-
  175. iron, at a temperature well above the skin temperature, then the entropy of
  176. the body is decreased by each brief touch and that of the soldering iron is
  177. increased. So in that case formally defined information is flowing from the
  178. soldering iron into the body. In both cases, information (semantic) is
  179. being transmitted into the body, for sensory nerves respond in either case.
  180.  
  181. If you want yet another example, consider sending a message from ground
  182. level to someone two stories up by opening and closing a valve that lets
  183. water out of a hose. There's no way that energy can be transmitted up the
  184. hose, or entropy down it, using the valve.
  185.  
  186. I don't think that the originators of information theory were thinking very
  187. much in terms of nervous systems. I don't think that they were looking for
  188. counterexamples, either. Physicists pay little attention to the properties
  189. of human perception. Especially at the higher levels, they simply project
  190. them into an objective universe. When HPCT gets into physics, physics, too,
  191. will undergo a(nother) revolution.
  192.  
  193. >But what Shannon and Weaver showed was that there is a key aspect of
  194. >communication, which is now usually called information, that is
  195. >independant of this "meaning" or semantic content and has nothing to do
  196. >with perception. I think they succeeded.
  197.  
  198. They succeeded in analyzing the physical situation under the assumption
  199. that the source of energy would always be at the source of the
  200. transmission, and that the energy would then travel to and have an effect
  201. on the receiver. They made a blunder in assuming that you can only affect
  202. the receiver by putting energy INTO it, but that doesn't make much
  203. difference under the circumstances they were trying to analyze. They didn't
  204. even have to worry about PNP vs NPN transistors -- just vacuum tubes.
  205.  
  206. They didn't have to use the word "information" at all, except that they
  207. hoped to draw a parallel between the physical interactions and the
  208. psychological or semantic world. They never considered any of the details
  209. of sensory perception or neural transmission, so it never occurred to them
  210. that energy entering the nervous system didn't simply proceed into neural
  211. channels and make its way to higher centers, like electron flow in a wire.
  212.  
  213. >Your rubber band experiment merely shows one example of a case where
  214. >control is necessary for information to be transmitted. It says nothing
  215. >about whether such control is necessary for information transmission in
  216. >general. I don't think it is. Give me reason to believe otherwise.
  217.  
  218. If you consider information transmission to consist only of objective
  219. signals traveling through a physical channel independently of human
  220. knowledge, you're talking about physical "information" -- simple lineal
  221. cause and effect. But that kind of information transmission (whichever way
  222. the energy and entropy go) does not explain communication among human
  223. beings, which is a closed-loop process. All it does is set the limits of
  224. accuracy in transmitting the level-zero message, as in Martin Taylor's
  225. Layered Protocol scheme. As I said in my talk, the _meaning_ of a
  226. communication must be supplied by the receiver, and it is not likely to be
  227. identical to the meaning intended by the transmitter. The difference is not
  228. due to channel noise, but to the different experiences of the human sender
  229. and the human receiver.
  230.  
  231. In fact, symbolic communication is an iffy way of getting meaning from
  232. source to destination. Experience is always far more detailed than our
  233. communications about it. When a mover struggles into the living room
  234. carrying a chair, the owner may say "Just put it down anywhere." But that
  235. is impossible: the behaving system has to put it down EXACTLY SOMEWHERE, to
  236. the limit of perceptual resolution. Our actual control processes are
  237. quantitative to the limit set by system noise; our symbolic communications
  238. are vague and fuzzy in comparison, admitting of many variations in the fine
  239. details of meaning that would still fit the message. So in interpreting
  240. communications, we always add enormously more detail by way of meaning than
  241. the message can possibly carry. This is why we misunderstand each other so
  242. easily despite all the acks and naks and multiple-bit error-detection and
  243. correction that goes on between keyboard at one end and screen at the
  244. other. Even despite the dictionaries we keep at our elbows. We do not mis-
  245. receive or misread the letters; we translate them into the wrong meanings.
  246.  
  247. That is why control is required: we must not just emit our messages blindly
  248. and assume that the intended meaning shows up at the other end. We must not
  249. just assume that what we read into messages we receive was intended to be
  250. launched.  We must get information back -- first from our own fingers as
  251. they blunder about over the keys, then from our own screen that shows what
  252. code was actually produced by our own flakey keyboard (displayed in a form
  253. we easily recognize), and then from the recipient of the message, to see,
  254. if we can, what meaning the recipient assigned to the strings of symbols we
  255. stuffed into our end of the wire. Many rounds of this closed loop must be
  256. traversed before a wise transmitter will admit that the intended meaning
  257. may just possibly have been noticed at the receiving end. Isn't that what's
  258. going on here?
  259.  
  260. >PS: I'm actually a lot more favourable to PCT than I appear in
  261. >my posts.
  262.  
  263. I knew that. Once you understand PCT, you can't un-understand it again.
  264. It's a trapdoor.
  265.  
  266. Best,
  267.  
  268. Bill P.
  269.