home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #27 / NN_1992_27.iso / spool / comp / ai / philosop / 6846 < prev    next >
Encoding:
Internet Message Format  |  1992-11-19  |  6.3 KB

  1. Path: sparky!uunet!usc!rpi!psinntp!psinntp!dg-rtp!sheol!throopw
  2. From: throopw@sheol.UUCP (Wayne Throop)
  3. Newsgroups: comp.ai.philosophy
  4. Subject: Re: grounding and the entity/environment boundary
  5. Message-ID: <722143376@sheol.UUCP>
  6. Date: 19 Nov 92 00:34:49 GMT
  7. References: <1992Nov13.191936.7308@spss.com> <721879394@sheol.UUCP> <1992Nov17.193945.1527@spss.com>
  8. Lines: 116
  9.  
  10. :: From: throopw@sheol.UUCP (Wayne Throop)
  11. :: Message-ID: <721879394@sheol.UUCP>
  12. :: Is that a fair summary?
  13. : From: markrose@spss.com (Mark Rosenfelder)
  14. : Message-ID: <1992Nov17.193945.1527@spss.com>
  15. : I'm not sure: I'm not clear on the "borrowed" vs. "predigested" distinction.
  16.  
  17. I used "borrowed" to refer to "raw" sense information being subjected
  18. to internal processing, that is, use of sense "organs" not part of the
  19. entity in question.  Eg: a GIF of a scene being subjected to analysis
  20. to pick out objects and such, perhaps akin to a person viewing a photograph.
  21.  
  22. I used "predigested" to refer to the results of such a processing step,
  23. as in a robot "getting grounded" and then using "undump" to create a
  24. process with the same static grounding on a computer.  There is no
  25. human action adequatly akin to this, but the notion would be something
  26. like a memory transplant.
  27.  
  28. My claim is that computers could plausibly use borrowed and predigested
  29. grounding to acheive "groundedness levels" that humans can only acheive
  30. by "direct experience", and that any "akin to" examples therefore lead
  31. to an inaccurate intuition about "what it would be like" for a computer
  32. to be grounded in this way.  It seems to me that a computer could have
  33. a "groundedness level" from borrowed or predigested material on a par
  34. with the "groundedness level" of a human's direct experience, subject
  35. only to bandwidth and technology issues.
  36.  
  37. I expect Mark disagrees with this.
  38.  
  39. : I think I could say that an AI's dynamic grounding varies (at least) with
  40. : the breadth of its sensorimotor capacity and its control over the same; and
  41. : that its static grounding depends on how integrated its sensorimotor capacity
  42. : is with its architecture. 
  43.  
  44. I agree with the first (more or less, with probable disagreement
  45. lurking in the "control over" part), but disagree with the second.
  46. This whole thread, being named "grounding and the entity/environment
  47. boundary" as it is, is an attempt to show that the "integratedness" of
  48. sensorimotor capacities is not a good indicator of the groundedness
  49. of symbols, the knowing-what-I'm-talking-about-ness of an entity's
  50. use of symbols.
  51.  
  52. Let me give a scenario to review my point.  Consider a room containing a
  53. sensor/effector cluster (camera, microphone, speaker, manipulators,
  54. etc), a computer, and a LAN connecting the two.  If we consider the
  55. "entity" to be the computer, then the symbols it uses to describe the
  56. room are (in Mark's model) ill-grounded, because the S/E cluster is not
  57. "integrated with its architecture".  But if we consider the "entity" to
  58. be the hardware in the room taken as a whole, then the very same symbols
  59. produced in the very same way are now well-grounded. 
  60.  
  61. It seems to me that this is a bad feature of a groundedness model.
  62.  
  63. Now, it's true that the "groundedness" is a property of *an* *entity*'s
  64. use of symbols, and the two cases involve *different* entities, so
  65. the model isn't self-contradictory, or inconsistent or any such thing.
  66. I'm just saying it's not a useful model, and that a more useful model
  67. would have a level-of-groundedness function that tracked the properties
  68. of the symbol system somewhat more closely than the properties of the
  69. entity employing it.
  70.  
  71. Specifically, consider the case of two computers and two S/E clusters
  72. in a room, all four things on a lan.  (A mathematician, of course,
  73. would smash one of the computers and one of the S/E clusters, thus
  74. reducing the problem to a case already solved... I'm not totally
  75. sure what the engineer and the physicist would do...)
  76.  
  77. The two computers can trade off use of either or both of the S/E
  78. clusters.  In this situation, it becomes clumsy to keep track of which
  79. entity is which, if you insist that any grounded entity must be
  80. "integrated" with an S/E.  It seems very strongly attractive to model
  81. the situation as two grouneded entities (the computers) and two
  82. non-grounded S/E clusters.  The computers are the "people" here, and
  83. the S/E clusters just total-prosthesis suits.
  84.  
  85.   [.. long comparisons involving S/E=telephone, computer=person-on-phone
  86.       and S/E=theatrical-costumes, computer=persons-trying-out-roles
  87.       deleted for reasons of analogy-exposition overdose ..]
  88.  
  89. :: Note in this connection it seems that the current "grounding
  90. :: deficit" of the computer in this scenario is a "mere" limitation of the
  91. :: bandwidth and storage capacity of recording technology, not a
  92. :: fundamental deficit of computers because of their computer-ness.
  93. : True; but as you improve the technology you're moving in the 
  94. : direction of roboticity.
  95.  
  96. I disagree.  Improvement in the sensors/effectors in no way implies
  97. that they are necessarily "part of the entity".  The difference between
  98. a robot and a computer is not really (or not only) the bandwidth of
  99. their interaction with the world, but whether (metaphorically) the
  100. peripherals are plugged into the backplane, or accessed over SCSI
  101. cabling (or a LAN).
  102.  
  103. : To test the hypothesis CI(x) -> G(x)
  104. : (certain internals imply grounding), we can't depend on a determination
  105. : of G(x) that simply reduces to CI(x).  But I don't think we're doing that.
  106. : For instance, we might define grounding as requiring sensory, causal,
  107. : high-bandwidth real-world experience.  Now we can evaluate G(x) by checking
  108. : S(x), C(x), HB(x), and we can test CI(x) -> G(x) without falling into
  109. : logical traps.
  110.  
  111. But S, C, and HB can all be examined without inspecting internals.
  112. (Perhaps I'm just emphatically agreeing...)
  113.  
  114. I can see that examining the S part becomes arbitrarily difficult as we
  115. consider arbitrary or exotic entity/environment boundaries (the
  116. question of just what is a "sense" arises, among other problems).  And
  117. the issue of predigestion in static grounding is an issue that looking
  118. at internals might help.  But in broad strokes, I think it's still the
  119. case that the only reason for inspecting internals is to rule out
  120. cheating of various kinds.
  121.  
  122. Anyway, I agree that inspecting  S, C, and HB are reasonable things,
  123. and don't create any logical traps of the sort I was worried about.
  124. --
  125. Wayne Throop  ...!mcnc!dg-rtp!sheol!throopw
  126.