home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #27 / NN_1992_27.iso / spool / comp / ai / philosop / 6858 < prev    next >
Encoding:
Internet Message Format  |  1992-11-24  |  7.7 KB

  1. Path: sparky!uunet!olivea!pagesat!spssig.spss.com!markrose
  2. From: markrose@spss.com (Mark Rosenfelder)
  3. Newsgroups: comp.ai.philosophy
  4. Subject: Re: grounding and the entity/environment boundary
  5. Message-ID: <1992Nov23.233708.13805@spss.com>
  6. Date: 23 Nov 92 23:37:08 GMT
  7. References: <721879394@sheol.UUCP> <1992Nov17.193945.1527@spss.com> <722143376@sheol.UUCP>
  8. Sender: news@spss.com (Net News Admin)
  9. Organization: SPSS Inc.
  10. Lines: 130
  11.  
  12. In article <722143376@sheol.UUCP> throopw@sheol.UUCP (Wayne Throop) writes:
  13. >I used "borrowed" to refer to "raw" sense information being subjected
  14. >to internal processing, that is, use of sense "organs" not part of the
  15. >entity in question.  Eg: a GIF of a scene being subjected to analysis
  16. >to pick out objects and such, perhaps akin to a person viewing a photograph.
  17. >
  18. >I used "predigested" to refer to the results of such a processing step,
  19. >as in a robot "getting grounded" and then using "undump" to create a
  20. >process with the same static grounding on a computer.  There is no
  21. >human action adequatly akin to this, but the notion would be something
  22. >like a memory transplant.
  23. >
  24. >My claim is that computers could plausibly use borrowed and predigested
  25. >grounding to acheive "groundedness levels" that humans can only acheive
  26. >by "direct experience", and that any "akin to" examples therefore lead
  27. >to an inaccurate intuition about "what it would be like" for a computer
  28. >to be grounded in this way.  It seems to me that a computer could have
  29. >a "groundedness level" from borrowed or predigested material on a par
  30. >with the "groundedness level" of a human's direct experience, subject
  31. >only to bandwidth and technology issues.
  32. >
  33. >I expect Mark disagrees with this.
  34.  
  35. I think I'd maintain that "borrowed" experience could lead to partial 
  36. grounding.  It would lead to *some* grounding in the same way that you can
  37. come to partly know what you're talking about, speaking of a city you've
  38. never been to, by seeing pictures of it.  It would lead to *partial* grounding
  39. for the same reason that the kittens who could see but not interact with
  40. the world didn't function very well.
  41.  
  42. I'm more dubious about the "predigested" experience.  A robotic system
  43. with senses and effectors is, let us say, grounded.  I don't see any reason
  44. to assume that the subsystem consisting of its "digested" experience,
  45. and any processing that gets done on it, is also grounded; and if this
  46. subsystem isn't grounded in a robot it certainly isn't in a computer.
  47.  
  48. To put it another way: if you chop up a grounded system you're eventually
  49. going to have a bunch of ungrounded pieces.  (As a reductio, individual
  50. neurons aren't grounded.)  A given part of the system *might* be grounded;
  51. but this cannot be assumed, it has to be demonstrated.  And if you divide
  52. grounded system R into subsystems X and Y, you can't prove that X is grounded
  53. by showing that Y is not: X and Y might both be ungrounded.
  54.  
  55. >: I think I could say that an AI's dynamic grounding varies (at least) with
  56. >: the breadth of its sensorimotor capacity and its control over the same; and
  57. >: that its static grounding depends on how integrated its sensorimotor capacity
  58. >: is with its architecture. 
  59. >
  60. >I agree with the first (more or less, with probable disagreement
  61. >lurking in the "control over" part), but disagree with the second.
  62. >This whole thread, being named "grounding and the entity/environment
  63. >boundary" as it is, is an attempt to show that the "integratedness" of
  64. >sensorimotor capacities is not a good indicator of the groundedness
  65. >of symbols, the knowing-what-I'm-talking-about-ness of an entity's
  66. >use of symbols.
  67. >
  68. >Let me give a scenario to review my point.  Consider a room containing a
  69. >sensor/effector cluster (camera, microphone, speaker, manipulators,
  70. >etc), a computer, and a LAN connecting the two.  If we consider the
  71. >"entity" to be the computer, then the symbols it uses to describe the
  72. >room are (in Mark's model) ill-grounded, because the S/E cluster is not
  73. >"integrated with its architecture".  But if we consider the "entity" to
  74. >be the hardware in the room taken as a whole, then the very same symbols
  75. >produced in the very same way are now well-grounded. 
  76.  
  77. I think we're interpreting "integrated" differently.  I mean it as a 
  78. description of the system's architecture as a whole.  If in the setup you've
  79. described the computer's software is designed around the S/E cluster,
  80. such that its operation doesn't even make sense if it's not connected to it,
  81. then the cluster is well integrated into the system, and in fact I'd be
  82. inclined to describe the system as a robot.
  83.  
  84. Where you draw boundaries around the "entity" is indeed important; but I
  85. don't see it as completely arbitrary.  You should look at the connections
  86. and interdependencies within and outside the boundary you've drawn.
  87. If the computer is well-integrated with the S/E cluster, then if you consider
  88. the computer as your entity, there will be many strong connections across the 
  89. boundary; lots of things inside the computer can't be explained without 
  90. reference to the S/E cluster-- you've got a subsystem on your hands.
  91. Viewing the system as a whole reduces outside connections to a minimum. 
  92.  
  93. I don't want to give the impression that I'm more certain about all this 
  94. than I am.  If we achieve AI and try out some of the strange architectures
  95. that our conceivable, our philosophical preconceptions are bound to be
  96. shattered and rebuilt.  I would hold pretty strongly to the idea that
  97. groundedness requires broad, long-term sensorimotor experience; somewhat less
  98. strongly that the experience must be direct and maintainable.
  99.  
  100. >Specifically, consider the case of two computers and two S/E clusters
  101. >in a room, all four things on a lan.  (A mathematician, of course,
  102. >would smash one of the computers and one of the S/E clusters, thus
  103. >reducing the problem to a case already solved... I'm not totally
  104. >sure what the engineer and the physicist would do...)
  105. >
  106. >The two computers can trade off use of either or both of the S/E
  107. >clusters.  In this situation, it becomes clumsy to keep track of which
  108. >entity is which, if you insist that any grounded entity must be
  109. >"integrated" with an S/E.  It seems very strongly attractive to model
  110. >the situation as two grouneded entities (the computers) and two
  111. >non-grounded S/E clusters.  The computers are the "people" here, and
  112. >the S/E clusters just total-prosthesis suits.
  113.  
  114. Hmm.  My inclination is to say, continuing the assumption that the S/E units
  115. are architecturally well integrated with the computer software, that there 
  116. are indeed two grounded entities, each consisting of one computer plus both 
  117. S/E clusters.  
  118.  
  119. It would be interesting to ask the computers (assuming they're AIs) what
  120. their self-image was in this situation.  Do they say, "I have two bodies,
  121. but I share them with my brother here", or "I have one body, this one here,
  122. but my brother uses it sometimes, and I can use his", or "I am a disembodied
  123. spirit, but I am able to use whatever body is available to me"?  Perhaps
  124. there is no a priori answer-- it could depend on their programming.
  125.  
  126. >:: Note in this connection it seems that the current "grounding
  127. >:: deficit" of the computer in this scenario is a "mere" limitation of the
  128. >:: bandwidth and storage capacity of recording technology, not a
  129. >:: fundamental deficit of computers because of their computer-ness.
  130. >: True; but as you improve the technology you're moving in the 
  131. >: direction of roboticity.
  132. >
  133. >I disagree.  Improvement in the sensors/effectors in no way implies
  134. >that they are necessarily "part of the entity".  The difference between
  135. >a robot and a computer is not really (or not only) the bandwidth of
  136. >their interaction with the world, but whether (metaphorically) the
  137. >peripherals are plugged into the backplane, or accessed over SCSI
  138. >cabling (or a LAN).
  139.  
  140. I don't see why this is an important distinction.  How are you deciding
  141. when a resource is part of the entity or not?
  142.