home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #18 / NN_1992_18.iso / spool / bit / listserv / csgl / 703 < prev    next >
Encoding:
Text File  |  1992-08-15  |  5.1 KB  |  101 lines

  1. Comments: Gated by NETNEWS@AUVM.AMERICAN.EDU
  2. Subject: (no subject given)
  3. Path: sparky!uunet!paladin.american.edu!auvm!FAC.ANU.EDU.AU!ANDALING
  4. Message-ID: <9208160655.AA13066@fac.anu.edu.au>
  5. Newsgroups: bit.listserv.csg-l
  6. Date:         Sun, 16 Aug 1992 16:55:28 EST
  7. Sender:       "Control Systems Group Network (CSGnet)" <CSG-L@UIUCVMD.BITNET>
  8. From:         Avery Andrews <andaling@FAC.ANU.EDU.AU>
  9. X-To:         csg-l@vmd.cso.uiuc.edu
  10. Lines: 89
  11.  
  12. [from Avery Andrews (920815)]
  13.  (penni sibun 920814, on marken 920808)
  14.  
  15. > on my view, you talk like a cognitivist.  partly cause you oppose pct
  16. > to behaviorism.  more tellingly, cause you explicitly locate control
  17. > in the head, just as cognitivists do.  ...
  18.  
  19. What I'd say to this is that PCT is not cognitivist, because the *phenomenon*
  20. of control is only found when an organism (or other `Agent') is put in an
  21. appropriate environment (e.g. if the road is covered with an oil-slick,
  22. one ceases to observe control of the direction in which the car is going).
  23. The phenomenon of control is just what Rick says it is: when you introduce
  24. disturbances that you would expect to change some aspect of the environment,
  25. but that aspect doesn't change, because the Agent consistently does things
  26. that `mysteriously' counteract your attempted disturbances.
  27.  
  28. There is a terminological difficulty here in that in normal usage,
  29. `control' does *not* imply any capacity to cope with unpredictable
  30. disturbances as they arise (I have retained a copy of one of Randy
  31. Beer's postings that documents this point extensively, which I could send
  32. to anyone who'se interested in looking at it).  So for example,
  33. most people would call the spikey cylinder in a music box its
  34. `control unit', but this object does not effect control in the PCT
  35. sense, since it doesn't counteract disturbances in any systematic way.
  36.  
  37. PCT goes on to say (at least) two further things:
  38.  
  39.   a) an Agent that is efficacious in the real world must effect control
  40.  
  41.   b) the only way control can be effected is by means of certain kinds
  42.      of internal arrangments  - perceptors, comparators  & effectors
  43.      appropriately connected so as to constitute negative feedback loops
  44.      in the context of the actual environment.
  45.  
  46. The argument for (a) is that the sorts of things that serious
  47. Agents might need or be designed to achieve are going to be subject to
  48. constant and unpredictable disturbances, which will then need to be
  49. counteracted as they arise, and the argument for (b) is that no alternative
  50. arrangments that effect control have been proposed (for example, the reason
  51. that Sonja could cope with conveyerbelts, whirlwinds, and, let us say,
  52. crunchbirds that would occasionally eat her monster-killing missiles in
  53. mid-flight, is that her central architecture is full of little control
  54. systems, even if Chapman didn't think of them that way).
  55.  
  56. So I'd see PCT as a subtype of interactive AI, which makes some additional
  57. claims about how to make sense out of how the internal structure of
  58. an Agent is related to its `behavior' (e.g. what happens in environments
  59. that contain it).  I'd take what I've come up with from cogitating about Sonja
  60. so far as supportive of these claims (and am encouraged that Penni finds it
  61. interesting) but there's still a lot I don't know, & there might be all
  62. sorts of genuinely efficacious but not-PCT organization in Sonja that I have
  63. missed.  But my experience so far is that PCT ideas really are
  64. helpful in figuring these things out (recall that I got on to Chapman
  65. & Agre when I showed Penni my proposed control system organization for
  66. getting beer, & she said that it was like their stuff).
  67.  
  68. What I would like to do is design and/or analyse some relatively large-scale
  69. agent along PCT lines - the crowd people and astro are a start, but they
  70. are obviously too rudimentary to convince people of the utility of
  71. the approach, in part because they don't have any `tactics'.  Crowd
  72. people, for example, avoid obstacles, but they don't really navigate
  73. in the way that Sonja does.  if you set things up so that there is a
  74. wall of stationary people between a mobile crowd person and her goal:
  75.  
  76.  
  77.                                P
  78.                                P
  79.              G                 P                            Goal
  80.                                P
  81.                                P
  82.                                P
  83.                                P
  84.  
  85.  
  86. (you can position stationary people by making them `active', but setting
  87. their gains to zero), G will head straight for the Goal until she is about
  88. to crash into the row of P's, and will then veer off one way or the
  89. other, not consistently taking the shortest way.  But Sonja (or my dog)
  90. would head immediately to whichever end of the wall would give the shortest
  91. path around.  I conjecture that the way to get the crowd people to navigate
  92. would be to give them more sophisticated perceptual functions (maybe even
  93. tuning the ones they have would do the trick - tho I haven't managed
  94. to do this), but to say this is not of course the same as to actually
  95. do it (Sonja in effect controls for not having a wall between where she
  96. is and where she wants to be going, according to my current understanding).
  97.  
  98.  
  99.  
  100. Avery.Andrews@anu.edu.audi
  101.