home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #19 / NN_1992_19.iso / spool / bit / listserv / csgl / 893 < prev    next >
Encoding:
Text File  |  1992-09-02  |  3.2 KB  |  66 lines

  1. Comments: Gated by NETNEWS@AUVM.AMERICAN.EDU
  2. Path: sparky!uunet!zaphod.mps.ohio-state.edu!darwin.sura.net!paladin.american.edu!auvm!FAC.ANU.EDU.AU!ANDALING
  3. Message-ID: <9209012348.AA10095@fac.anu.edu.au>
  4. Newsgroups: bit.listserv.csg-l
  5. Date:         Wed, 2 Sep 1992 09:48:16 EST
  6. Sender:       "Control Systems Group Network (CSGnet)" <CSG-L@UIUCVMD.BITNET>
  7. From:         Avery Andrews <andaling@FAC.ANU.EDU.AU>
  8. Subject:      Planning and Agre's Cooking Problem
  9. Lines: 55
  10.  
  11. [from Avery Andrews (920902.0914)]
  12.   (Thomas Baines 92090909)
  13.  
  14.  > I think Avery almost has it.
  15.  
  16. Spurred on by this, I'll dump the rest of this file.  Before Penni
  17. introduced me to Interactive AI, but after I started getting CSGNet,
  18. it struck me that there was something very wierd about the discussions
  19. of the `frame problem' in my AI books, because they seemed to be
  20. concerned with the problems faced by programs that attempted to imagine
  21. everything that might happen in some domain that they had no practical
  22. experience in.
  23.  
  24. By contrast, real planning, as carried out with some modicum of success
  25. by real people (we have 4 people, 1 car, 7 hard commitments & 3 wishes --
  26. how are we going to get thru Saturday?) is carried out in domains where
  27. people have a lot of practical experience.  Consider a typical operator
  28. (= step in a plan).  In addition to its desired effect, it will have
  29. various side-effects, which can be grouped into three types:
  30.  
  31.   a) irrelevant (when I execute DRIVE(OWEN,BELCONNEN), the place on the
  32.       driveway where the car is normally parked will get wet if it
  33.       rains).
  34.  
  35.    b) relevant, but routinely controllable (as a result of the driving, the
  36.        fuel-level of the car will decrease).  One of the effects of culture
  37.        is to increase the routine controllability of side effects.
  38.  
  39.    c) relevant, but uncontrollable.  (while I am doing the driving, there
  40.         won't be any car at home, so no other person can do any driving).
  41.  
  42. So the real-world planner can find out from hearsay and experience what the
  43. type (c) consequences of his/her actions are, and construct `clean' sets of
  44. operators that have few such consequences.  The general intractability of
  45. planning means that real plans have to be quite short, so that experienced
  46. and competent people would have large libraries of operators, which might
  47. be individual quite complicated (like the tricks that people make up to do
  48. the last layer of  the Rubik's cube).
  49.  
  50. In terms of everyday live, it strikes me that errors are very often made
  51. when a side-effect of an operator switches from type a) to type c).
  52. E.g., when a family with two drivers is reduced from having two cars to
  53. only one, they are constantly making plans which presuppose that another
  54. car will be available when one has been driven off somewhere.  It took
  55. My wife and I a tremendously long time to stop making up these kinds of
  56. errors after we had the use of a friend's car for six months (tho we did
  57. usually manage to spot our mistake before anyone actually drive off to
  58. somewhere).
  59.  
  60. And, as Penni has been saying to me recently, a lot of the info about
  61. useful operations doesn't have to be figured out at all - you can pick it
  62. up by watching and listening, because it's just floating around in the
  63. culture.
  64.  
  65. Avery.Andrews@anu.edu.au
  66.