home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #26 / NN_1992_26.iso / spool / bit / listserv / csgl / 1439 < prev    next >
Encoding:
Text File  |  1992-11-10  |  8.6 KB  |  169 lines

  1. Comments: Gated by NETNEWS@AUVM.AMERICAN.EDU
  2. Path: sparky!uunet!stanford.edu!bcm!convex!darwin.sura.net!paladin.american.edu!auvm!VAXF.COLORADO.EDU!POWERS_W
  3. X-Envelope-to: CSG-L@vmd.cso.uiuc.edu
  4. X-VMS-To: @CSG
  5. MIME-version: 1.0
  6. Content-transfer-encoding: 7BIT
  7. Message-ID: <01GQZLWRHXCI009LQ7@VAXF.COLORADO.EDU>
  8. Newsgroups: bit.listserv.csg-l
  9. Date:         Tue, 10 Nov 1992 13:52:01 -0700
  10. Sender:       "Control Systems Group Network (CSGnet)" <CSG-L@UIUCVMD.BITNET>
  11. From:         "William T. Powers" <POWERS_W%FLC@VAXF.COLORADO.EDU>
  12. Subject:      Linguistics, misc
  13. Lines: 154
  14.  
  15. [From Bill Powers (921110.1200)]
  16.  
  17. Penni Sibun (921109.1300) --
  18.  
  19. >well, i actually don't believe in ``meaning'' very much.  i think >it's
  20. a systematic error that people tend to think actions that >involve
  21. language have meanings and those that don't don't.
  22.  
  23. PCT and I agree with at least your second sentence. It isn't actions
  24. that have meanings, whether they're verbal or other motor outputs. As
  25. Bruce Nevin pointed out, in PCT (and elaborations thereon) meanings are
  26. perceptions evoked by other perceptions. If you perceive the word
  27. "green", its meaning is the color that comes to mind. If you perceive
  28. the color green on a traffic light, its meaning is a perception of your
  29. car starting to move (in that context). This translation between one
  30. perception and another associated one is our proposition for how the
  31. folk concept of meaning works.
  32.  
  33. As to doing without meaning entirely, I think that would pretty much put
  34. an end to communication.
  35.  
  36. >a higher order system looks for the completeness criterion to be
  37. >satisfied, and then salix *can* stop--but doesn't *have* to.  can
  38. >you have that kind of variable in pct?
  39.  
  40. Sure. It's what we call a "single ended" or "one-way" control system --
  41. one that considers a departure of a perception from the reference signal
  42. in only one direction to be an error. This is like controlling for how
  43. close to the edge of a cliff you like to perceive yourself. When you're
  44. closer than the reference distance, there's a big error and you pull
  45. back. But if you step back so you're farther from the edge than that
  46. amount, the control system doesn't act to bring you closer again. One-
  47. way control.
  48.  
  49. Actually all simple neural control systems have to be one-way systems,
  50. as I model them in my head. The reason is that comparators are made of
  51. neurons with one inhibitory and one excitatory input, the excitatory one
  52. being the reference signal. You get an error signal only when the
  53. perceptual signal is less than the reference signal, leaving some
  54. effects of the reference signal uninhibited. You increase your action
  55. until the perceptual signal completely inhibits the effect of the
  56. reference signal, leading to zero error signal (the output of the
  57. neuron). When the perceptual signal is more than large enough to
  58. completely inhibit the reference signal, you still get zero error.
  59. Neural frequencies can't go negative -- less then zero impulses per
  60. second.
  61.  
  62. To get a two-way neural control system you need two comparators, one of
  63. which has inhibition and excitation swapped relative to the other. This
  64. implies that control actions that pass through a zero or a neutral state
  65. will not, except by accident, be completely symmetrical. If you measure
  66. the parameters of control actions, separating the actions for positive
  67. errors from those for negative errors, you should find a slight
  68. difference in the parameters. We haven't tried that yet.
  69. >... what i'd like you to try to do is to assume--for just
  70. >a few minutes--that i have an interesting and intelligent proposal
  71. >(viz., what has been said and what there is to say codetermine what
  72. >can be said now), and work with me to cast that model in pct terms.
  73.  
  74. For this you must propose a model (my meaning). The model would be a
  75. proposal as to HOW what has been said and what is to be said do this
  76. codetermining. You may actually have built some of this model into your
  77. program, without identifying the process implied by the program
  78. manipulations in PCT terms.
  79.  
  80. Suppose that in the knowledge base there are elements called John and
  81. Penni. Whether you mean the person or the name of the person is
  82. immaterial. In PCT terms we would say that the program perceives things,
  83. names them, and stores the names in memory structures. The perceptual
  84. signal would be whatever is used in the program to stand for the memory
  85. structure -- a 32-bit address, for example, although in a closed-loop
  86. system any arbitrary but unique symbol would do (it won't be necessary
  87. in a closed-loop system to work backward from the symbol to the thing it
  88. indicates).
  89.  
  90. Also in your knowledge base you want some relationship perceptions to
  91. exist -- for example (father-of John Penni). This implies a general
  92. perceptual function of the form (father-of x y) where x and y are any
  93. two inputs from the lower level elements. I don't know how you'd design
  94. such a perceptual function; presumably it would rely on multiple sources
  95. of evidence other than just the names John and Penni. There would have
  96. to be something about John and something about Penni and something about
  97. their relationships that would reveal that the first element is the
  98. father of the second element -- or is not.
  99.  
  100. Of course you could let this process occur behind the scenes or under
  101. the table, and just deposit the specific statement (father-of John
  102. Penni) in the knowledge base. In that case you would be relying on
  103. processes in the programmer that identify the father-of relationship,
  104. but not specifically representing those processes in the model.
  105.  
  106. The same could be done at the level of the individual words. Instead of
  107. proposing some process by which a set of sensory inputs is identified as
  108. "John" or "Penni," you could just put those terms in the knowledge base,
  109. letting the processes of perceiving and naming take place outside the
  110. model.
  111.  
  112. This takes us only the first step toward a PCT model of how what has
  113. been said and what is to be said codetermine what is to be said next. We
  114. have been trying to determine how something can be known to be said. We
  115. have yet to determine how the system can know what remains to be said,
  116. so more parts of the model can be constructed. Then we will have to make
  117. some proposals as to what "codetermination" is to mean. And finally, we
  118. will have to close the loop, so that what is finally said can be made to
  119. satisfy all the conditions we have set up in the earlier parts of the
  120. model.
  121.  
  122. I would be very surprised if the answers to many of these questions were
  123. not already embodied in the steps of your program. To unravel the PCTequivalent
  124.  of the model that you are already using (if such exists), it
  125. would be necessary to analyze the program itself to see how one kind of
  126. information is extracted from other information, to see how comparisons
  127. are made, and to see how the results of comparisons lead to actions. I
  128. won't dispute that the outcome of all these processes will be a
  129. codetermination of what is to be said next by what has been said and
  130. what remains to be said. But we won't have a model to account for that
  131. phenomenon until we have taken your program apart and seen just how this
  132. codetermination is brought about.
  133.  
  134. The best person to do that, I suggest, is you. If you don't want to take
  135. the time off to learn the fundamentals of PCT, then it's not likely to
  136. get done. It's up to you to judge whether the result would be worth the
  137. effort.
  138. ------------------------------------------------------------------
  139. Dag Forssell and Hank Folson --
  140.  
  141. PCT has been shown to make very accurate predictions for some very
  142. simple tasks. I get extremely uncomfortable when I see public claims
  143. that the PCT model is 99.999% accurate. That is not just misleading,
  144. it's a lie. Saying things like that will make people think that PCT can
  145. predict what people will do with that kind of accuracy in all
  146. situations. This is simply not true. There are years and years of
  147. experimentation and model-building to do before we can know how well PCT
  148. will apply in areas such as language, social interactions, learning, and
  149. so forth -- all the fields where PCT has not yet been systematically
  150. applied or tested.
  151.  
  152. If you want to sell PCT that's fine. If it has engaged your enthusiasm,
  153. wonderful. But please tone down the hype. That doesn't further the
  154. cause. Sorry about the bludgeon, but I want to get the donkey's
  155. attention.
  156. ------------------------------------------------------------------
  157. Jixhuan Hu (921110) --
  158.  
  159. Welcome to CSGnet! I think that before you start making comparisons
  160. between our uses of control theory and cybernetics, you should read some
  161. of the introductory material. It takes most people more than a week to
  162. realize what we're talking about. You won't find much in the kind of
  163. cybernetics you were mentioning that is like what we do.
  164. -------------------------------------------------------------------
  165. Best to all,
  166.  
  167.  
  168. Bill P.
  169.