home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #27 / NN_1992_27.iso / spool / comp / ai / philosop / 6803 < prev    next >
Encoding:
Internet Message Format  |  1992-11-15  |  4.8 KB

  1. Path: sparky!uunet!ornl!sunova!convex!darwin.sura.net!spool.mu.edu!agate!doc.ic.ac.uk!uknet!mcsun!sunic!psinntp!psinntp!dg-rtp!sheol!throopw
  2. From: throopw@sheol.UUCP (Wayne Throop)
  3. Newsgroups: comp.ai.philosophy
  4. Subject: Re: grounding and the entity/environment boundary
  5. Summary: pause for calibration... then more on degree of grounding, and relevance of internals
  6. Message-ID: <721879394@sheol.UUCP>
  7. Date: 16 Nov 92 00:15:27 GMT
  8. References: <1992Nov13.191936.7308@spss.com>
  9. Lines: 87
  10.  
  11. :: From: throopw@sheol.UUCP (Wayne Throop)
  12. :: But it is my claim that computers *do* have physical interaction
  13. :: with the world, just of a narrower bandwidth than robots.  
  14. : From: markrose@spss.com (Mark Rosenfelder)
  15. : Message-ID: <1992Nov13.191936.7308@spss.com>
  16. : And that's enough to establish a correspondence with the human benchmark,
  17. : and thus groundedness?  If that's all it takes, it would seem that *any*
  18. : computer system, not just an AI, is "grounded."
  19.  
  20. Now, now.  I didn't say that's *all* it takes, any more than Mark
  21. said (far) earlier in this thread that high bandwidth is *all* it takes.
  22. In addition to the "causal connection" (tm, bletch), some behavioral
  23. and structural complexity (though see below about internals) is
  24. required to match the facts of human interaction with the world.
  25.  
  26. Let me try to express clearly what I think Mark and I *do* agree on,
  27. and what I think we still disagree on.
  28.  
  29. First, I think we can agree that what we think of as "grounding", both
  30. static and dynamic requires causal, sensual experience of the situation
  31. an entity is said to be grounded in. 
  32.  
  33. I think, because of the ambiguity involved in the entity/environment
  34. boundary, it is reasonable to suppose that computers can be grounded
  35. by "borrowed" experience, and statically grounded as the results of
  36. borrowed and "predigested" experience.
  37.  
  38. I further think that a standalone computer with horribly narrow
  39. bandwidth senses (such as keyboard and mouse) and motor skills
  40. (such as pixels on a screen) can be said to be at least statically
  41. grounded due to predigested experience of one form or another,
  42. and can plausibly maintain a minimal dynamic grounding, though
  43. of greatly degraded quality.
  44.  
  45. As I understand it, Mark disagrees about the "borrowed" experience,
  46. partly agrees about the "predigested" experience,  and thinks that
  47. it would be possible to form a spectrum of "extent of groundedness"
  48. based on how closely the entity has control of the senses that
  49. supposedly ground it, and finally is skeptical that a "stand alone"
  50. computer could possible remain grounded, for reasons of
  51. sensory deprivation impacting its functioning.
  52.  
  53. Is that a fair summary?
  54.  
  55. :: My claim is that the computer's download and perusal of GIFs from a
  56. :: library of grand canyon stills, [...]
  57. :: is ultimately just as much (though of lower bandwidth and with other
  58. :: limitations) a physical interaction with the canyon as that human's.
  59. : It's a physical interaction, yes, but to my mind it doesn't afford a lot of
  60. : grounding.  I'd consider a human being who's been to the Grand Canyon and
  61. : walked around in it to "know what he's talking about" (be grounded) much
  62. : more than someone who's only seen pictures of it.  But the latter person 
  63. : is much more grounded than someone who's only read about it.  
  64.  
  65. I agree.  Note in this connection it seems that the current "grounding
  66. deficit" of the computer in this scenario is a "mere" limitation of the
  67. bandwidth and storage capacity of recording technology, not a
  68. fundamental deficit of computers because of their computer-ness. 
  69.  
  70. : I'm not willing to say
  71. : that an AI system which simulates a blind paraplegic hermit in a cave
  72. : "has passed the Turing Test" (simply).  
  73.  
  74. Ok, ok.  But an AI that has successfully simulated the capabilities
  75. of a blind paraplegic hermit in a cave with a breath-operated
  76. teletype would be very impressive, it seems to me.  At least
  77. potentially, there's plenty of behavioral complexity there to
  78. be impressed by.
  79.  
  80. :: As far as "examining the internals", well... [...]
  81. : I thought we were talking about grounding, not intelligence.  But in any
  82. : case I just don't see why we wouldn't want to investigate the intelligence
  83. : of any system by inspection of its external behavior alone.  How long
  84. : would it take to explicate human intelligence if we submitted ourselves
  85. : to this restriction?
  86.  
  87. Hmmmmm.  We may be talking past each other here, because my first
  88. impulse was to say "yes, I agree but [...]", and then (I discovered)
  89. replace the "[...]" part with exactly what I'd already said.
  90.  
  91. In other words, I agree that there's no reason to avoid looking
  92. at the internals.  It's just that the inference of intelligence,
  93. and even groundedness, can't (yet) depend on the internals,
  94. since the efficacy of the internals is what we're trying to 
  95. infer in the first place.  (Hope the rephrase made it clearer.)
  96. --
  97. Wayne Throop  ...!mcnc!dg-rtp!sheol!throopw
  98.