home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1993 #3 / NN_1993_3.iso / spool / comp / ai / philosop / 7354 < prev    next >
Encoding:
Internet Message Format  |  1993-01-21  |  8.6 KB

  1. Path: sparky!uunet!spool.mu.edu!agate!doc.ic.ac.uk!warwick!uknet!edcastle!cam
  2. From: cam@castle.ed.ac.uk (Chris Malcolm)
  3. Newsgroups: comp.ai.philosophy
  4. Subject: Re: Colbys-Weizenbaum and Overcoming Depression 2.0
  5. Message-ID: <30581@castle.ed.ac.uk>
  6. Date: 21 Jan 93 12:24:44 GMT
  7. References: <8172@skye.ed.ac.uk> <C0yDFC.35x@cs.bham.ac.uk> <93Jan17.180655est.47622@neat.cs.toronto.edu>
  8. Organization: Edinburgh University
  9. Lines: 150
  10.  
  11. In article <93Jan17.180655est.47622@neat.cs.toronto.edu> mstede@cs.toronto.edu (Manfred Stede) writes:
  12.  
  13. >The origin of this discussion, however, was a program aiming to be an 
  14. >artificial psychotherapist.  Someone's posting advised to boil this
  15. >application down to the absolute minimal requirement: a tool that you
  16. >can talk to, that munches on the words for a second, and throws some-
  17. >thing back at you, such that some of your words reappear, and you do
  18. >that for a while, and you achieve self-elucidation.  Well, if this is the
  19. >purpose, and I don't care about what the program utters anyways, I might
  20. >as well talk to my cat.  Or to myself, which may in fact be much more
  21. >useful, because I could give myself sensible answers, couldn't I.  
  22. >No need for a self-elucidation program.
  23.  
  24. But the trouble with talking to yourself, or your cat, as anyone who
  25. has actually seriously tried this knows only too well, is that you (or
  26. your cat) don't ask yourself unexpected questions. That is why ancient
  27. systems of psychotherapy make such use of random oracles (reading
  28. bones, cards, tea-leaves, etc.). And that is the reason why puzzle
  29. solvers who are stuck are advised to try "silly" ideas, and to try
  30. random mutations of suggestive material, in an effort to jolt the mind
  31. out of its rut.  It's the old generate-&-test paradigm. The human mind
  32. is a lot better at testing than generating, however, hence the
  33. popularity of artificial aids in the generation part of the problem
  34. solving process.  That's why a silly clueless word-crunching program
  35. can be a useful adjunct to self-elucidation. And silly and clueless as
  36. it may be, it would be hard for it not be better than opening the
  37. Bible (or whatever) at random, for the utility of which there is great
  38. deal of evidence.
  39.  
  40. Your kind of criticism is based on the presumption that _if_ a
  41. psychotherapeutic program is any good, then it _must_ possess, within
  42. itself, certain psychotherapeutic qualities. An obvious one of these,
  43. which the program can't avoid lacking, is understanding the distressed
  44. person. But a therapeutic program which does its work by engaging in a
  45. dialogue with a person is a participant in a process involving a very
  46. capable mind -- the mind of the human user. It can help that mind if
  47. it can provide facilities which that mind can find helpful. These can
  48. be very simple facilities indeed. For example, because I have a poor
  49. memory, I find pencil and paper very helpful in solving problems of
  50. all kinds. Including difficult problems involving sexual relationships
  51. with others.  But there is absolutely _no_ problem solving ability in
  52. the paper and pencil I use. For a start they know nothing about sex.
  53. Yet I find them invaluable aids.
  54.  
  55. >If the standards remain a little higher and we truly want an advice-
  56. >giving system, then one of my objections is that with the current state 
  57. >of NLP it just won't work and would not be of any use: There is no 
  58. >sublanguage to be pinned down here, to which you could connect your KB
  59. >such that you get some inferences right and come back with useful
  60. >advice.  The program designer cannot anticipate what the problem of the 
  61. >patient is, what s/he will be talking about, and how s/he will be talking 
  62. >about it.  And the user is bound to notice at some point how little that
  63. >dialogue partner actually grasps; frustration is a likely reaction. 
  64.  
  65. It is very easy to use simple ELIZA-like techniques to create a
  66. program capable of imparting useful information in the form of a
  67. discussion, or a question and answer session. Of course the program
  68. often makes mistakes, misunderstanding the user and making a
  69. completely irrelevant response. But people so that too. We respond by
  70. rephrasing our questions. Sometimes we have to do this a number of
  71. times. It works with ELIZA-ish programs too. In fact, it is much
  72. easier to rephrase your questions to get the answer you want,
  73. precisely because there is no (mis)understanding involved. Just as a
  74. hyper-card system can help you to learn something better than a plain
  75. book, so an ELIZA-like system can do a bit better than a hyper-card
  76. system. In this sort of application the user doesn't get frustrated by
  77. noticing the mechanics of the system; the user learns how to use the
  78. way the system works to get what she wants out of it.
  79.  
  80. Of course if a user thought the program was really _understanding_
  81. their problems, then frustration and tears are inevitable. But this is
  82. simply due to misunderstanding by the user. The solution is education
  83. -- which can in this case be easily provided by the supplier or the
  84. machine.
  85.  
  86. >If the sublanguage cannot be restricted due to the domain (as it is
  87. >the case with the psychotherapist), it becomes quite difficult, if not
  88. >impossible, to explain to someone with no linguistics background what 
  89. >the program can handle and what not.
  90.  
  91. You don't need a linguistics background to understand how an
  92. ELIZA-like system works! And adding simple parsing of logical
  93. relations between clauses is easy to implement, and to understand as a
  94. user. I once built an ELIZA-like system whose mission in life was to
  95. explain how it worked, and to engage in AI/philosophy of mind debates.
  96. School kids played with it for hours, enjoyed discovering how it
  97. worked, and had no trouble understanding it. Once they had grasped
  98. its capabilities, a favourite trick was to engage in a carefully
  99. staged dialogue which would convince a visiting teacher or parent that
  100. it really understood! (It was particularly good at Chinese Room
  101. arguments :-)
  102.  
  103. The program doesn't have to make a good response every time. Irrelevant
  104. responses are quite acceptable provided there are ways the user can
  105. work round to getting the required response. A program which interacts
  106. with a _very_ sophisticated language user can employ the abilities of
  107. the user.
  108.  
  109. >No reason to get AI involved in this business, no need to advertise 
  110. >anything as a computer program that analyzes your psychatric problems 
  111. >for you and helps you solving them.
  112.  
  113. This is your misconception. You think that if AI is involved there
  114. must be some element of "real" analysis and understanding involved.
  115. But as I have argued, an _aid_ to self-elucidation need not duplicate
  116. human cognitive capabilities, since it can borrow them; it only needs
  117. to be able to offer useful facilities which the user can employ.  You
  118. would then like to say "Ah, but in this case there is no AI, it's just
  119. a program, an animated book." What you don't realise that this kind of
  120. animated book can usefully employ the techniques of AI to better do
  121. its job of being an animated book. AI can be (and is routinely) used
  122. in applications without a trace of, or the slightest intention to
  123. have, "real" understanding. That's a research goal about which there
  124. is a lot of debate :-) It has nothing to do with the business of
  125. building useful interactive books or self-elucidation aids, since
  126. useful versions of these can be built without "real" understanding.
  127.  
  128. Of course they would be even better with "real" understanding. But,
  129. like today's calculators, they can do a pretty useful job without it.
  130.  
  131. It interests me that Weizenbaum's secretary was smart enouh to realise
  132. the therapeutic possibilities of ELIZA, whereas Weizenbaum was
  133. outraged by what he mistakenly considered to be the philosophical
  134. implications of what she was doing. As a general rule women find it
  135. much easier than men to use oracles like Tarot-reading gypsies,
  136. horoscopes, I Ching, etc., to help them elucidate their problems,
  137. while men are much more likley to be outraged by what they
  138. (mistakenly) think are the philosophical implications of asking a pack
  139. of cards a question.
  140.  
  141. In psychotherapeutic programs have we discovered a use of computers
  142. which women will take to quite naturally, but which men will have
  143. great conceptual difficulties with?
  144.  
  145. (There's an intersting philosophy of mind issue behind all this.
  146. Manfred's view depends on seeing intelligence etc. as being primarily
  147. a property of an agent, whereas I see it as primarily a property of
  148. the interactive process between an agent and something else. I no more
  149. expect to find intelligence _inside_ myself than I expect to find it
  150. in the Chinese Room :-)
  151.  
  152.  
  153.  
  154.  
  155.  
  156.  
  157. -- 
  158. Chris Malcolm    cam@uk.ac.ed.aifh          +44 (0)31 650 3085
  159. Department of Artificial Intelligence,    Edinburgh University
  160. 5 Forrest Hill, Edinburgh, EH1 2QL, UK                DoD #205
  161.