home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #19 / NN_1992_19.iso / spool / bit / listserv / csgl / 897 < prev    next >
Encoding:
Text File  |  1992-09-03  |  12.9 KB  |  269 lines

  1. Comments: Gated by NETNEWS@AUVM.AMERICAN.EDU
  2. Path: sparky!uunet!uvaarpa!darwin.sura.net!paladin.american.edu!auvm!VAXF.COLORADO.EDU!POWERS_W
  3. X-Envelope-To: CSG-L@vmd.cso.uiuc.edu
  4. X-Vms-To: @CSG
  5. Mime-Version: 1.0
  6. Content-Transfer-Encoding: 7BIT
  7. Message-ID: <01GOCD24PEV60000M0@VAXF.COLORADO.EDU>
  8. Newsgroups: bit.listserv.csg-l
  9. Date:         Thu, 3 Sep 1992 09:33:41 -0600
  10. Sender:       "Control Systems Group Network (CSGnet)" <CSG-L@UIUCVMD.BITNET>
  11. From:         "William T. Powers" <POWERS_W%FLC@VAXF.COLORADO.EDU>
  12. Subject:      Skinner & Control; More cooking; variaboili
  13. X-To:         CSG-L@vmd.cso.uiuc.edu
  14. Lines: 253
  15.  
  16. [From Bill Powers (920903.0800)]
  17.  
  18. Chuck Tucker (920902.1223) --
  19.  
  20. It's hard to know what Skinner was thinking of when he said variables
  21. in the environment "control" behavior. He certainly couldn't have
  22. meant the same thing as when he said that an experimenter "controls"
  23. the behavior of a pigeon toward a preselected goal-state. He just
  24. wouldn't have spoken of the environment controlling in that way. I
  25. don't think we can pin him down to a specific meaning, because I don't
  26. think he had one.
  27.  
  28. >... the term 'control' cannot be used to describe any activity that
  29. >goes on between "self-regulating systems".
  30.  
  31. That puts my view succinctly.
  32. ----------------------------------------------------------------------
  33. -
  34. Penni Sibun (920902.1200) --
  35.  
  36. >... in an ai/mentalist approach, perception is the input to
  37. >representation. representation is datastructures that hang around in
  38. >your head (whereas perception doesn't hang around in yr head, it's
  39. >basically a process).  chapman and i et al. argue against that view
  40. of >perc./repr.
  41.  
  42. This is a sticky problem with words. Perception can mean a whole
  43. closed-loop process which includes the actions on the world required
  44. to bring a perception into some state. It can mean the activities of
  45. the perceptual part of the brain -- that is, a process of sensing and
  46. constructing higher sensory variables out of lower ones. Or it can
  47. mean the outcome of all these processes -- that is, something that is
  48. apprehended as a perception, or as Martin says, a percept. To compound
  49. that confusion, traditional uses of the term have separated sensation
  50. (registering of sensory input energies) from perception
  51. (interpretation, inference, and insight). I think that all these
  52. usages reflect confusion about the whole subject.
  53.  
  54. I decided to cut through the confusion (at least in my own head) by
  55. dropping all the overlapping and ambiguous usages and using perception
  56. to mean simply the presence of a neural signal in any afferent pathway
  57. at any level of complexity. I could do this because in the
  58. epistemology of control, what is controlled in the final analysis is
  59. the signal inside the brain that corresponds to some aspect of the
  60. external world. In fact, the "aspect of the world" becomes
  61. hypothetical, while the signals are all that are available to
  62. awareness. This puts the perceived world inside the head from the very
  63. beginning, so there is no question of "coding" or "representation."
  64. The world known to the brain, including all its dynamic phenomena, is
  65. a world of signals. That's the world that we see as being outside of
  66. us, because I assume that the interface between awareness and whatever
  67. else there is is always mediated by the brain. I haven't seen any
  68. other way of making sense of subjective experience in the same
  69. framework with observations of the behavior of others and the physical
  70. construction of a person -- and believe me, I have tried for a long
  71. time.
  72.  
  73. From your words, I get the impression that the AI concept of
  74. "representation" is something still different. We have the world,
  75. perception of the world, and representations of perception of the
  76. world. This could be a halting step toward the sort of hierarchy of
  77. perception that makes up HPCT. But it doesn't seem to be cast in terms
  78. of experienced aspects of the world at the highest level. It seems
  79. more like a conversion of higher aspects of experience into a
  80. mathematical system that is almost deliberately nonintuitive.
  81. ---------------------------------------------------------------------
  82. >>   This is because each level of perception does not start from
  83. >>scratch (as in Brooks' subsumption architecture) but derives its own
  84. >>type
  85.  
  86. >i'm not sure this is right about brooks....
  87.  
  88. I think it is. "Higher" systems in Brooks' architecture get
  89. information from the same sensors that feed lower systems; when a
  90. higher system wants to act, it has to inhibit the lower system to keep
  91. it from interfering. Look at his overall diagram. He shows an input
  92. line that branches out to all the levels in the subsumption stack;
  93. input information gets to the higher levels without going through the
  94. lower systems.
  95.  
  96. In the HPCT model, the ONLY systems that can act directly on the
  97. environment are those in the lowest levels of control. Higher systems
  98. have to act by telling lower systems what states of the controlled
  99. variables at that level to maintain; they can't bypass the lower
  100. systems and operate the muscles directly. Also, many levels involve
  101. perception and control of signals that are already being perceived and
  102. controlled, individually, by lower systems. The higher-level
  103. perceptions are functions of already-existing lower-level perceptions
  104. that have been abstracted from sensory inputs by lower perceptual
  105. functions. So in general, the inputs to higher systems have already
  106. been processed by lower systems, many levels of them. This is very
  107. different from Brooks' arrangement.
  108. ----------------------------------------------------------------------
  109. --
  110. Martin Taylor (920902.1430) --
  111. RE: exploration as result of systematic control process.
  112.  
  113. >I hadn't thought of this possibility.  It comes close to an idea I
  114. had >very many years ago, that organisms control to maintain a
  115. preferred >level of variability in perception at all levels of
  116. abstraction.
  117.  
  118. The problem with ideas like this is that putting them into a model, a
  119. block diagram that shows how they would work is very difficult. If a
  120. system is going to control for variability at all levels of
  121. abstraction, you have to show how it gets information about
  122. variability from all these levels, and how its actions affect the
  123. lower systems to change the variability in the necessary direction. I
  124. can't imagine how that could be done without interfering with the
  125. control systems at all those levels. And just what is it about an ECS
  126. that you would vary in order to change its "variability?"
  127.  
  128. The same problem shows up in your suggestions about a "alerting
  129. functions". What is it that they are affecting in the controlling
  130. systems? How do they know about the consequences of those effects?
  131. What, exactly, are these systems supposed to do? I can see some
  132. broadly-defined effects, but I don't see any models that would tell us
  133. what to expect when connections of this sort are actually set up and
  134. working.
  135.  
  136. We can't tell if conjectures like these are any good until they are
  137. cast in the form of a model from which we could predict the
  138. consequences of such an organization. To turn them into models, you
  139. have to make specific propositions about the details. Until that's
  140. done, there's nothing to test. You don't even know if the organization
  141. you suggest is feasible on its own merits, much less descriptive of
  142. behavioral organization.
  143. ----------------------------------------------------------------------
  144. --
  145. Penni Sibun (920902.1400) --
  146.  
  147. >well, of course, to interactionists, institutions are neither in the
  148. >head nor in the evironment, but....  this list, csgl, is an
  149. institution >cause we are all participating in it.  it's not my head,
  150. it's not in >your head, and it's not out there in the environment
  151. somewhere just >sitting around.
  152.  
  153. My problem with institutions is that they're nouns, whereas what goes
  154. on between organisms are processes and interactions -- verbs. What
  155. something like CSG-L "is" depends on who's looking at it. For me, it's
  156. an ongoing conversation with a person to claims to be Penni Sibun,
  157. someone who uses the name Rick Marken, a writer who expresses himself
  158. very much like Chuck Tucker, and so forth. The only real person on
  159. this net is me. From someone else's viewpoint, I'm imaginary. What the
  160. net "is" depends on each user's conception of it, and that conception
  161. isn't out there in the world. It's in a head.
  162.  
  163. >>   If you objectify objects, you can't explain how the same
  164. >   object can have different roles depending on who's using it for
  165. what
  166. >>   purpose.
  167.  
  168. >i don't see how this follows (unless ``objectify'' has a lot of
  169. >connotations here).
  170.  
  171. When the role is in the object, Out There, it's treated like a
  172. physical property of the object. Everyone expects the role to be self-
  173. evident to everyone else, as the role of a lawnmover is to cut grass.
  174. By objectivifying the object, I mean projecting one's private
  175. experience of it into a world that is assumed to be identical for all
  176. observers.
  177.  
  178. >>   That's what I was asking about. If it's nondeterministic in that
  179. >>   sense, then what selects which of the possible paths will be
  180. taken?
  181.  
  182. >that's not the machine's problem:
  183.  
  184. >``...we shall...permit several possible `next states' for a given
  185. >combination of current state and input symbol.  the automaton
  186. >[machine]...may choose at each step to go into any one of these legal
  187. >next states; the choice is not determined by anything in our model,
  188. >and is therefore said to be _nondeterministic_.''
  189.  
  190. Doesn't your quote say explicitly that it _is_ the machine's problem?
  191. "The automaton [machine] may choose at each step to go into any one of
  192. these legal next states..."
  193.  
  194. I think that what the quote means is that it isn't the _programmer_'s
  195. problem -- that is, the simulation or model or whatever is making its
  196. own choices based on current experience, rather than having those
  197. choices programmed in from the start. But if you include the state of
  198. the environment and the criteria for choosing, then the automaton is
  199. deterministic, even if the programmer didn't determine its choices.
  200. The only way I can see to produce a nondeterministic outcome is to
  201. make the choice using random numbers or the output of a Geiger
  202. counter.
  203.  
  204. >   >no, a history is what happens between one point in time and
  205. another
  206. >   >point in time.
  207.  
  208. >   Do you mean that there are continuous processes taking place
  209. BETWEEN
  210. >   nodes? I had thought that an operation simply jumped you from one
  211. >   node to another.
  212.  
  213. >in section ``ontology of cooking tasks,'' a&h say:  ``a _history_ is
  214. a
  215. >function from natural numbers (representing `time') to world
  216. states.''
  217. >roughly, a history is a record of what happens during a run of toast.
  218.  
  219. This still doesn't answer my question. If an operation like "put pan
  220. on burner" is carried out, I assume that the history would record the
  221. pan first in some other place, then after the operation, the pan on
  222. the burner. What I was asking was whether the position of the pan was
  223. recorded in this history over the whole trajectory between "on the
  224. counter" and "on the burner," or whether just the end positions were
  225. recorded. In other words, were the positions BETWEEN the nodes
  226. recorded, or just the positions AT the nodes?. My impression is that
  227. histories don't really use the REAL numbers to represent time, but
  228. only the CARDINAL numbers. Is "history" time really physical time? If
  229. you move a pot of coffee from the burner to the table too fast, will
  230. it slop over?
  231.  
  232. The reason I ask is that unless physical time is used, none of the
  233. physical properties of the elements of the task can be dealt with.
  234. Only abstract properties from categories up (in my scheme) can be
  235. handled.
  236.  
  237. >> What I don't get are all these nodes and arcs and that
  238. >> stuff, which sounds like the innards of a computer program, not
  239. >> something happening with someone doing it. chacun a son gout.
  240.  
  241. >oh, absolutely.  can you see that that's exactly my reaction when
  242. >y'all get into the details of reference signals etc. and all that
  243. >math?  in both cases, the theories and their models are disjoint, and
  244. >it's an enormous act of faith (or science?!) to maintain the belief
  245. >that they have anything to do w/ each other.
  246.  
  247. This is why we don't start with the math, but with the phenomenon of
  248. control. Once you have experienced and understood control as something
  249. happening, the PCT explanation becomes the only feasible one; it's
  250. clear that no other explanation can even come close to handling what
  251. you see happening. It would, in fact, take an enormous act of faith to
  252. believe that the control-theoretic explanation is wrong.
  253.  
  254. By this I don't mean that a specific model, assembled for purposes of
  255. analysis, is unique or self-evident. I mean that the CONCEPT of which
  256. the specific model is one embodiment seems unavoidable. If you're
  257. holding back from accepting PCT, it's only because you haven't seen
  258. the CONCEPT yet. This can't be done through mathematical analysis. You
  259. just have to look at your own experiences and actions, and realize
  260. that everything you know about them occurs first as a perception. And
  261. that all your actions are organized to make perceptions be a certain
  262. way, or not be a certain way. Until that gets through, none of the
  263. math will seem particularly interesting or compelling.
  264. ----------------------------------------------------------------------
  265. -
  266. Best to all,\
  267.  
  268. Bill P.
  269.