home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #18 / NN_1992_18.iso / spool / bit / listserv / csgl / 682 < prev    next >
Encoding:
Text File  |  1992-08-12  |  10.2 KB  |  199 lines

  1. Comments: Gated by NETNEWS@AUVM.AMERICAN.EDU
  2. Path: sparky!uunet!gatech!paladin.american.edu!auvm!VAXF.COLORADO.EDU!POWERS_W
  3. X-Envelope-to: CSG-L@vmd.cso.uiuc.edu
  4. X-VMS-To: @CSG
  5. MIME-version: 1.0
  6. Content-transfer-encoding: 7BIT
  7. Message-ID: <01GNHM1M7AXU0009MB@VAXF.COLORADO.EDU>
  8. Newsgroups: bit.listserv.csg-l
  9. Date:         Wed, 12 Aug 1992 09:15:28 -0600
  10. Sender:       "Control Systems Group Network (CSGnet)" <CSG-L@UIUCVMD.BITNET>
  11. From:         "William T. Powers" <POWERS_W%FLC@VAXF.COLORADO.EDU>
  12. Subject:      AI & AL problems
  13. X-To:         CSG-L@vmd.cso.uiuc.edu
  14. Lines: 183
  15.  
  16. [From Bill Powers (920812.0800)]
  17.  
  18. penni sibum (920811) --
  19.  
  20. I don't fault Chapman for bypassing problems with vision, form recognition,
  21. noise tolerance, and so on. Even if we knew how a game player converts an
  22. array of pixels into a signal standing for "monster," we might prefer to
  23. leave out those computations just to fit the simulation into a computer.
  24.  
  25. >...it does get occasionally confusing, but that in fact is the nature >of
  26. video games:  the player identifies w/ the character in the game.  >(that's
  27. why *we* get confused:  i don't know if sonja confuses itself >with the
  28. amazon or pengi confuses itself with the penguin.)
  29.  
  30. What I'm trying to get at is that the *model* is not confused; it does what
  31. it does. When you boil down all those hyphenated phrases, they have to
  32. become variables and operations on them. All the verbal interepretations
  33. are going on outside the model, in the modeler. I'll have more to say after
  34. I see Chapman's book.
  35. ------------------------------------------------------------------------
  36. Oded Maler (920812) --
  37.  
  38. >The point is that there is some level where we (seem, at least, to)
  39. >work in discrete terms, e.g., "if my PC doesn't boot then I replace
  40. >the diskette" ,etc.
  41.  
  42. I don't think that the discrete terms are always as discrete as they seem.
  43. Suppose you do stick a disk in drive A and turn on the computer. You hear
  44. the fan start, the red light on the disk drive blinks, the disk drive
  45. whirrs and buzzes ....
  46.  
  47. At this point, has the PC booted? What is the state of the
  48. categorical/sequential/logical perception, "booting up the pc?"
  49.  
  50. It goes on. The B drive light blinks and the drive buzzes, the hard disk
  51. light flickers, the printer goes kachunk, and finally all the action quiets
  52. down. Only one thing -- during all of this, there's been nothing on the
  53. screen.
  54.  
  55. Now what's the status of "the disk drive is booting up?" All the time that
  56. the familiar activity was going on, you were getting perceptual signs that
  57. the computer was on its way up (a familiar event). But with nothing on the
  58. screen, part of the process is missing. The computer seems to be booting
  59. up, but it's not doing it quite right. When the action stops, you've got a
  60. big question mark hanging: did it really boot up or not? What's wrong? You
  61. perceive MOST of "the computer is booting up" but not ALL of it. Eventually
  62. you realize that there's no pilot light on the monitor, and you turn the
  63. switch to "on" -- and the screen fills up with the usual gobbledygook. NOW
  64. the computer has booted up.
  65.  
  66. I'll bet that Martin Taylor would say that the perception of the discrete
  67. category or state is probabilistic. When something is missing, the
  68. probability-value of the perception is less than 1. I would just say that
  69. the perception changes on a continuous scale from none to the reference
  70. amount. There are probably other ways to interpret this experience,
  71. implying still other propositions about how the perception of discrete
  72. categories works. But the one way of putting it that we wouldn't use, I
  73. think, is "either the computer is booting up or it's not." That strictly
  74. mathematical interpretation doesn't fit the way perceptions actually
  75. behave. When everything happens right except for the screen display, we
  76. don't experience this as "the computer is not booting up." We experience it
  77. as "something's wrong with the way the computer is booting up."
  78.  
  79. To me, this means that set theory, symbolic logic, and computer programming
  80. don't quite fit the way the brain works at these levels. No doubt there are
  81. aspects of what the brain is doing that resemble the way mathematical
  82. representations behave, but I think it would be a mistake to assume that
  83. the mathematical processes are anything more than an approximation to the
  84. real system's mode of action. It's possible that something else entirely is
  85. going on.
  86.  
  87. Think of the difference between "absolutely" in the following sentences:
  88.  
  89. "What you say is absolutely true"
  90.  
  91. "I'm pretty sure that what you say is absolutely true."
  92.  
  93. The meaning of "absolutely" is weakened by saying "I'm pretty sure." It's
  94. not negated or affirmed; it's left somewhat less than affirmed. While the
  95. words still seem categorical, their meanings are shifted in a continuum, as
  96. are the meanings of anything further we say on the subject:
  97.  
  98. "I'm pretty sure that what you say is absolutely true, but let's act
  99. cautiously."
  100.  
  101. Computers can't act cautiously; all they can do is act or not act.
  102.  
  103. >... try running Little Man in a non-uniform environment with obstacles,
  104. >non-reversible consequences, dead-ends [and this is by no means an
  105. >attempt to dismiss its achievements - just to note that there are many
  106. >hard problems in the highr-levels]).
  107.  
  108. Oh, yes, there certainly are. I think, though, that as we build up a
  109. working model level by level, the nature of those hard problems will begin
  110. to look different. Maybe the hard problems will prove to have simpler
  111. solutions. Look how hard reaching out and pointing seems if you try to
  112. accomplish it without feedback, the way the motor program people are doing.
  113. In the motor program scheme, the higher levels have the burden of analyzing
  114. the environment and the dynamics of the arm, and computing signals that
  115. will result in a particular trajectory and end-point. It would take at
  116. least a program-level system to compute the inverse dynamics of the system.
  117. With the control-system approach, the higher levels don't have to be
  118. concerned with that at all: all they have to do is decide on the desired
  119. relationship between the fingertip and the target. So all that terribly
  120. complicated computation disappears from the model. You're still left with
  121. problems, such as what to do when there's an immovable obstacle in the way
  122. of pointing, but I'd rather try to solve problems like that than the
  123. problem of computing inverse dynamical equations.
  124.  
  125. >Now, it's not clear what 1% accuracy means in this abstract world,
  126. >because the disk-drive cannot be 99% pregnant - and if I buy from you
  127. >a low-level black box, I trust that it will work.
  128.  
  129. The problem of 1% accuracy shows up when a logical process commands a
  130. result to occur, and it occurs with a 1% error. This is a reasonable error
  131. for a good lower-level control system that's dealing with moderate
  132. disturbances. What is the next process in line to do? If it just proceeds,
  133. it will begin with a 1% error, and after it's done, the error might be 2%.
  134. There's nothing to prevent a random walk as these errors accumulate, until
  135. what's actually accomplished in response to a command or a decision bears
  136. no resemblance to what was intended at the higher level. Somehow these
  137. little quantitative errors have to be taken into account at the higher,
  138. supposedly discrete, levels. Of course in what you term an abstract world,
  139. such discrepancies can't exist; there's no provision for them. This may
  140. mean that the abstract world is not a good representation of the higher
  141. levels of perception and control. Of course human beings can behave as if
  142. the world were discrete -- but the world they deal with then is imaginary,
  143. and when the abstract processes are required to work in the real-time
  144. world, they will probably fail.
  145.  
  146. I'm probably trying to make my case too strong. A lot of behaviors governed
  147. by discrete decisions aren't critical; if I decide to drive into Durango,
  148. it doesn't much matter whether I hit the center of town within 1%. If I
  149. miss the Durango Diner by one block I can just park and walk the remainder
  150. of the distance (if I can find a spot that close). The lower level systems
  151. can make up for a lot of imprecision and idealization on the part of the
  152. higher ones -- they fill in the critical details that the "abstract"
  153. systems leave out.
  154.  
  155. One last observation. Control systems don't deal with pregnancy -- only
  156. with perception of pregancy. If a woman you know well shows up looking
  157. considerably stouter than usual, you could easily perceive her as 60%
  158. pregnant and 40% overweight. You won't congratulate her, and you won't form
  159. an opinion of her eating habits, because there are two conflicting
  160. perceptions of her state. To assert that a woman can't "be 99% pregnant" is
  161. to make an epistemological assumption, which is that the world is identical
  162. to our perceptions of it. We assume that the world can't be in two
  163. mutually-exclusive states at once; in fact, that's the essence of
  164. categorical thinking. But the world we experience can be in states between
  165. different categorical boundaries and between the logically true and false.
  166.  
  167. >What is wrong in our verbal account of our introspection concerning the
  168. >way we operate in this level? Do the higher-level percepts and >references
  169. carry with them some concrete features of the lower level >ones from which
  170. they are constructed/grounded in such a way that the >solution "flow"
  171. instead of being searched-for/calculated?
  172.  
  173. Higher systems are both continuous and discrete, I think. Anything a person
  174. does is an example of human systems at work. People can obviously get into
  175. a "calculation" mode where they apply rules literally and arrive at yes-no
  176. results. So a model of a brain has to contain the ability to do this. On
  177. the other hand, these processes can also operate in a sloppier way where
  178. the processes look more like a flow than a switch. So the model has to be
  179. able to do that, too. I think that at what I call the program level, there
  180. is a lot more going on than digital calculation. I think this is a
  181. generalized computer that can follow ANY kinds of rules -- the rules of
  182. Boolean logic are just one kind.
  183.  
  184. >I don't expect immediate answers..
  185.  
  186. Me neither.
  187. -----------------------------------------------------------------------
  188.  
  189. Bruce Nevin (920811) --
  190.  
  191. Do you think we should send that guy at Discovery some copies of Closed
  192. Loop and invite him to join this net? Why don't you ask him?
  193.  
  194. -----------------------------------------------------------------------
  195. Best to all,
  196.  
  197.  
  198. Bill P.
  199.