home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1993 #3 / NN_1993_3.iso / spool / comp / ai / philosop / 7384 < prev    next >
Encoding:
Internet Message Format  |  1993-01-25  |  3.1 KB

  1. Xref: sparky comp.ai.philosophy:7384 sci.philosophy.tech:4947
  2. Path: sparky!uunet!zaphod.mps.ohio-state.edu!magnus.acs.ohio-state.edu!cis.ohio-state.edu!bounce-bounce
  3. From: chandra@cis.ohio-state.edu (B Chandrasekaran)
  4. Newsgroups: comp.ai.philosophy,sci.philosophy.tech
  5. Subject: Re: Searle on animal consciousness
  6. Date: 25 Jan 1993 08:35:37 -0500
  7. Organization: The Ohio State University Dept. of Computer and Info. Science
  8. Lines: 55
  9. Message-ID: <1k0qb9INN5dc@cannelloni.cis.ohio-state.edu>
  10. References: <1993Jan24.213358.10067@sophia.smith.edu> <1jvevlINN4va@cannelloni.cis.ohio-state.edu> <C1Dzy0.H9D@unix.portal.com>
  11. NNTP-Posting-Host: cannelloni.cis.ohio-state.edu
  12.  
  13.  
  14. In article <C1Dzy0.H9D@unix.portal.com% emil@shell.portal.com (emil rojas) writes:
  15. %chandra@cis.ohio-state.edu (B Chandrasekaran) writes:
  16. %
  17. %%In article <1993Jan24.213358.10067@sophia.smith.edu% orourke@sophia.smith.edu (Joseph O'Rourke) writes:
  18. %%That is a different question.  You are no longer asking if dogs are
  19. %%conscious, but about the complexity of and variety of the objects of
  20. %%their consciousness (and the expressiveness of th language in which
  21. %%these objects are represented).  I haven't read Searles' book, but
  22. %%from what you said about it it seems that all he is saying is that
  23. %%dogs are conscious.
  24. %
  25. %Does conscious here mean self-aware?
  26. %
  27.  
  28. I think so.  To the extent that the dog is in pain, it is aware that it
  29. is in pain.  Of course, if by "aware" you mean that it ought to express
  30. this to itself as a proposition in natural language, then the dog is not
  31. aware, but I'd like to argue against such a restricted use of the term
  32. "aware."
  33.  
  34. %
  35. %%BTW, having beliefs (or behaving such that beliefs are attributable to
  36. %%one) is not sufficient for consciousness.  One can behave as if one
  37. %%believes A without being aware that one believes A.  Often,
  38. %%psychoanalysis brings out hidden fears and beliefs that control our
  39. %%actions, but we are not aware of them.  Of course we are often aware
  40. %%of desires and beliefs as well, but that doesn't seem to a defining
  41. %%characteristic of consciousness.  The content of consciousness in
  42. %%humans is much more expressive of course, which certainly gives human
  43. %%consciousness a qualitative difference. 
  44. %
  45. %I take issue with the idea that this "gives human consciousness a
  46. %qualitative difference."  Unless of course, you believe an elephant's
  47. %strength is _qualitatively_ greater than your own.
  48. %
  49.  
  50. I think there is a certain "second-orderness" to human consciousness, since
  51. we are not only aware of certain things, but we are also often aware that
  52. we are aware.  In my view this makes possible certain recursiveness which
  53. yields a qualitative difference to human consciousness.  I think it can be
  54. fairly claimed that this second order consciousness is missing in animals,
  55. even though one can't be sure of that.  
  56.  
  57. %%But having goals (which is
  58. %%the same as desires, I think) and knowledge (or beliefs) is orthogonal
  59. %%to being conscious, I think.
  60. %
  61. %Just to be picky.  Conscious and _knowledge_ of self/other would seem
  62. %to me to be related, that is not orthogonal.
  63. %--
  64.  
  65. I think (following Newell), being in a knowledge state is not necessarily
  66. identical to being conscious of having that knowledge.
  67.  
  68.