home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #27 / NN_1992_27.iso / spool / comp / ai / philosop / 6820 < prev    next >
Encoding:
Text File  |  1992-11-17  |  3.1 KB  |  64 lines

  1. Newsgroups: comp.ai.philosophy
  2. Path: sparky!uunet!secapl!Cookie!frank
  3. From: frank@Cookie.secapl.com (Frank Adams)
  4. Subject: Re: grounding and the entity/environment boundary
  5. Message-ID: <1992Nov17.010534.102069@Cookie.secapl.com>
  6. Date: Tue, 17 Nov 1992 01:05:34 GMT
  7. References: <1992Nov10.232454.14032@spss.com> <1992Nov11.230802.132235@Cookie.secapl.com> <1992Nov13.194948.8061@spss.com>
  8. Organization: Security APL, Inc.
  9. Lines: 53
  10.  
  11. In article <1992Nov13.194948.8061@spss.com> markrose@spss.com (Mark Rosenfelder) writes:
  12. >In article <1992Nov11.230802.132235@Cookie.secapl.com> frank@Cookie.secapl.com 
  13. >(Frank Adams) writes:
  14. >>In article <1992Nov10.232454.14032@spss.com> markrose@spss.com (Mark Rosenfelder) writes:
  15. >>>First, how much is enough?  The amount required obviously depends on the
  16. >>>design of your algorithm.  Do you have a design in hand, so you can be sure
  17. >>>how much memory is needed?
  18. >>
  19. >>We can estimate the AI's rate of sensory input, allow a factor of 10 for
  20. >>memories of thoughts, and provide enough for 1,000 years.  Will this do?
  21. >
  22. >OK, let's start with a million bytes a second of sensory input.  Pitifully
  23. >small, really, but I suppose we could live with it.
  24.  
  25. Absurdly large, rather.  At least if data compression algorithms are used.
  26. We only need to store enough information so that the consciousness can be
  27. presented with a rendition of the original which *it* can cannot
  28. distinguish.
  29.  
  30. >>>Second, how do you know you won't be deleting memories?
  31.  
  32. More directly to the point, I don't have to delete the memories relating to
  33. grounding in some one particular area if I have some reason to remain
  34. grounded in that area.  So the hypothesis that the grounding *must* decay
  35. for this reason is unfounded.
  36.  
  37. Loss of grounding due to changes in the area one is grounded in are, as we
  38. have already agreed, a separate case.
  39.  
  40. >>>Check out the chapter on shrews from Konrad Lorenz's _King Solomon's Ring_.
  41. >>>Shrews apparently memorize every physical detail of their habitat.  Exploring
  42. >>>new terrain, they go slowly, building their mental map as it were.  When
  43. >>>they reach places they know they zip along like dervishes, following their
  44. >>>memorized knowledge.  Indeed, they are more apt to believe their memory than
  45. >>>their senses: they have been known to jump into pools that are no longer
  46. >>>there...
  47. >>
  48. >>So the shrews use an inferior algorithm.  This is an argument for using a
  49. >>better algorithm, not for throwing out the memories.
  50. >
  51. >Throwing out old memories *is* a better algorithm.
  52.  
  53. Only given a particular set of tradeoffs.  The shrews would probably *not*
  54. be better off if they threw away those memories, and used the additional
  55. brain capacity for higher thought processes.  They don't have enough brain
  56. capacity to be very smart, and are probably better off as they are.
  57.  
  58. My only claim is that it will be possible to build an AI which can remain
  59. grounded in spite of an extended period away from an area, if that area does
  60. not change.  I do *not* claim that this will be the *best* tradeoff of
  61. resources for the AI -- although I think it very likely that the best
  62. tradeoff for the AI will result in *better* retentention of memories than
  63. what we have.
  64.