home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #27 / NN_1992_27.iso / spool / comp / ai / philosop / 6829 < prev    next >
Encoding:
Text File  |  1992-11-17  |  5.3 KB  |  110 lines

  1. Newsgroups: comp.ai.philosophy
  2. Path: sparky!uunet!charon.amdahl.com!pacbell.com!sgiblab!darwin.sura.net!wupost!emory!sol.ctr.columbia.edu!eff!news.oc.com!spssig.spss.com!markrose
  3. From: markrose@spss.com (Mark Rosenfelder)
  4. Subject: Re: grounding and the entity/environment boundary
  5. Message-ID: <1992Nov17.193945.1527@spss.com>
  6. Sender: news@spss.com (Net News Admin)
  7. Organization: SPSS Inc.
  8. References: <1992Nov13.191936.7308@spss.com> <721879394@sheol.UUCP>
  9. Date: Tue, 17 Nov 1992 19:39:45 GMT
  10. Lines: 98
  11.  
  12. In article <721879394@sheol.UUCP> throopw@sheol.UUCP (Wayne Throop) writes:
  13. >Let me try to express clearly what I think Mark and I *do* agree on,
  14. >and what I think we still disagree on.
  15.  
  16. If we come to agree on everything, will we cease to exist?
  17.  
  18. >First, I think we can agree that what we think of as "grounding", both
  19. >static and dynamic requires causal, sensual experience of the situation
  20. >an entity is said to be grounded in. 
  21.  
  22. Yup.
  23.  
  24. >I think, because of the ambiguity involved in the entity/environment
  25. >boundary, it is reasonable to suppose that computers can be grounded
  26. >by "borrowed" experience, and statically grounded as the results of
  27. >borrowed and "predigested" experience.
  28. >
  29. >I further think that a standalone computer with horribly narrow
  30. >bandwidth senses (such as keyboard and mouse) and motor skills
  31. >(such as pixels on a screen) can be said to be at least statically
  32. >grounded due to predigested experience of one form or another,
  33. >and can plausibly maintain a minimal dynamic grounding, though
  34. >of greatly degraded quality.
  35. >
  36. >As I understand it, Mark disagrees about the "borrowed" experience,
  37. >partly agrees about the "predigested" experience,  and thinks that
  38. >it would be possible to form a spectrum of "extent of groundedness"
  39. >based on how closely the entity has control of the senses that
  40. >supposedly ground it, and finally is skeptical that a "stand alone"
  41. >computer could possible remain grounded, for reasons of
  42. >sensory deprivation impacting its functioning.
  43. >
  44. >Is that a fair summary?
  45.  
  46. I'm not sure: I'm not clear on the "borrowed" vs. "predigested" distinction.
  47.  
  48. I think I could say that an AI's dynamic grounding varies (at least) with 
  49. the breadth of its sensorimotor capacity and its control over the same; and 
  50. that its static grounding depends on how integrated its sensorimotor capacity 
  51. is with its architecture.  Both types of grounding can also be assumed to
  52. degrade in a dysfunctional or insane entity.
  53.  
  54. >:: My claim is that the computer's download and perusal of GIFs from a
  55. >:: library of grand canyon stills, [...]
  56. >:: is ultimately just as much (though of lower bandwidth and with other
  57. >:: limitations) a physical interaction with the canyon as that human's.
  58. >: It's a physical interaction, yes, but to my mind it doesn't afford a lot of
  59. >: grounding.  I'd consider a human being who's been to the Grand Canyon and
  60. >: walked around in it to "know what he's talking about" (be grounded) much
  61. >: more than someone who's only seen pictures of it.  But the latter person 
  62. >: is much more grounded than someone who's only read about it.  
  63. >
  64. >I agree.  Note in this connection it seems that the current "grounding
  65. >deficit" of the computer in this scenario is a "mere" limitation of the
  66. >bandwidth and storage capacity of recording technology, not a
  67. >fundamental deficit of computers because of their computer-ness. 
  68.  
  69. True; but as you improve the technology you're moving in the direction
  70. of roboticity.
  71.  
  72. >: I'm not willing to say
  73. >: that an AI system which simulates a blind paraplegic hermit in a cave
  74. >: "has passed the Turing Test" (simply).  
  75. >
  76. >Ok, ok.  But an AI that has successfully simulated the capabilities
  77. >of a blind paraplegic hermit in a cave with a breath-operated
  78. >teletype would be very impressive, it seems to me.  At least
  79. >potentially, there's plenty of behavioral complexity there to
  80. >be impressed by.
  81.  
  82. Oh, I have a very healthy respect for any actual accomplishment in AI.
  83. We both denigrated the groundedness of SHRDLU awhile back, for instance,
  84. but Terry Winograd stands high in the Valhalla of AI, or would if he were dead.
  85.  
  86. >:: As far as "examining the internals", well... [...]
  87. >: I thought we were talking about grounding, not intelligence.  But in any
  88. >: case I just don't see why we wouldn't want to investigate the intelligence
  89. >: of any system by inspection of its external behavior alone.  How long
  90. >: would it take to explicate human intelligence if we submitted ourselves
  91. >: to this restriction?
  92. >
  93. >Hmmmmm.  We may be talking past each other here, because my first
  94. >impulse was to say "yes, I agree but [...]", and then (I discovered)
  95. >replace the "[...]" part with exactly what I'd already said.
  96. >
  97. >In other words, I agree that there's no reason to avoid looking
  98. >at the internals.  It's just that the inference of intelligence,
  99. >and even groundedness, can't (yet) depend on the internals,
  100. >since the efficacy of the internals is what we're trying to 
  101. >infer in the first place.  (Hope the rephrase made it clearer.)
  102.  
  103. OK, I see what you're saying.  To test the hypothesis CI(x) -> G(x)
  104. (certain internals imply grounding), we can't depend on a determination
  105. of G(x) that simply reduces to CI(x).  But I don't think we're doing that.
  106. For instance, we might define grounding as requiring sensory, causal,
  107. high-bandwidth real-world experience.  Now we can evaluate G(x) by checking
  108. S(x), C(x), HB(x), and we can test CI(x) -> G(x) without falling into
  109. logical traps.
  110.