home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #27 / NN_1992_27.iso / spool / comp / ai / philosop / 6851 < prev    next >
Encoding:
Text File  |  1992-11-21  |  1.5 KB  |  32 lines

  1. Newsgroups: comp.ai.philosophy
  2. Path: sparky!uunet!secapl!Cookie!frank
  3. From: frank@Cookie.secapl.com (Frank Adams)
  4. Subject: Re: Human intelligence vs. Machine intelligence
  5. Message-ID: <1992Nov21.211537.130472@Cookie.secapl.com>
  6. Date: Sat, 21 Nov 1992 21:15:37 GMT
  7. References: <1992Nov17.152753.13786@oracorp.com>
  8. Organization: Security APL, Inc.
  9. Lines: 21
  10.  
  11. In article <1992Nov17.152753.13786@oracorp.com> daryl@oracorp.com (Daryl McCullough) writes:
  12. >frank@Cookie.secapl.com (Frank Adams) writes:
  13. >>When you try to understand what G means, by interpreting the "diagonalizing"
  14. >>operator, you get an infinite regress (in fact, a simple self-reference, but
  15. >>it is not difficult to construct examples using diagonalization where the
  16. >>references are not self-referential, but do produce an infinite regress).
  17. >
  18. >There is no infinite regress! To understand what G means, you only
  19. >need to know (1) what diagonalization means, and (2) what it means for
  20. >David Chalmers to believe something. [...]
  21. >
  22. >The only way that G becomes paradoxical is if we assume that David
  23. >Chalmers is so smart that he believes something if and only if it is
  24. >true. In that case, G reduces to the Liar Paradox, which I admit does
  25. >cause problems.
  26.  
  27. IMO, it is sufficient to make G paradoxical that the meaning of G is
  28. *relevant* to whether David Chalmers believes it.  (Actually, "paradoxical"
  29. is not quite the right word; 'This sentence is true.' is not precisely
  30. paradoxical; but it (on most accounts, including mine) shares the
  31. unacceptability of "This statement is false.".)
  32.