home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1993 #3 / NN_1993_3.iso / spool / comp / ai / philosop / 7419 < prev    next >
Encoding:
Text File  |  1993-01-27  |  11.8 KB  |  240 lines

  1. Newsgroups: comp.ai.philosophy
  2. Path: sparky!uunet!inmos!fulcrum!bham!bhamcs!axs
  3. From: axs@cs.bham.ac.uk (Aaron Sloman)
  4. Subject: Re: Colbys-Weizenbaum etc Belated Replies (1)
  5. Message-ID: <C1JEA5.M30@cs.bham.ac.uk>
  6. Sender: news@cs.bham.ac.uk
  7. Nntp-Posting-Host: emotsun
  8. Organization: School of Computer Science, University of Birmingham, UK
  9. Date: Wed, 27 Jan 1993 23:51:41 GMT
  10. Lines: 228
  11.  
  12. Various people commented on some of my earlier postings and I have been
  13. too busy to reply. So here goes. First
  14.  
  15. From: mstede@cs.toronto.edu (Manfred Stede)
  16. Message-ID: <93Jan17.180655est.47622@neat.cs.toronto.edu>
  17. Date: 17 Jan 93 23:07:18 GMT
  18. Organization: Department of Computer Science, University of Toronto
  19.  
  20. [AS]
  21. > > > >If some people are so badly educated that they take the use of "I"
  22. > > > >in computer print-out to mean the machine has a mind, rather than
  23. > > > >just being an extension of the use of "I" when a book includes
  24. > > > >something like "in that situation I would advise you to take plenty
  25. > > > >of rest...." or whatever, then we need to improve the education of
  26. > > > >the general public.
  27. [MS]
  28. > > > It's not just the word "I".  If the rest of the dialogue were
  29. > > > obviously mechanical, perhaps no one would be fooled.
  30. [AS]
  31. > > Yes - but the point is the same. I see no more reason why what's
  32. > > printed out by an expert system should use clumsy stilted English
  33. > > than what's printed in a book. Of course, it depends on what the
  34. > > task of the program is.
  35. [MS]
  36. > But the book is a fairer partner: it only talks to you.  The dialogue
  37. > program pretends to "understand".
  38.  
  39. That depends on the program. Some books "pretend" to talk to the reader
  40. because they include, for instance, rhetorical questions. People who
  41. don't understand the relevant literary conventions may be confused by
  42. this. That's no reason for banning such books. Some books pretend to be
  43. based on divine revelation. That's a lot worse. But I'd still rather
  44. educate people than ban the books.
  45.  
  46. Just because a program interacts with the user that does not mean it is
  47. pretending to do something it doesn't do. To a limited extent a database
  48. program understands insofar as it produces the required information in
  49. answer to questions. Why should that be OK and not something that helps
  50. people with personal problems? I think it's nothing but sheer prejudice
  51. and a Weizenbaum-type romantic human-centrism that objects to this.
  52.  
  53. Incidentally "understands" is not an all-or-nothing concept, as I tried
  54. to show in
  55.     A.Sloman
  56.     `What enables a machine to understand?' in
  57.     Proceedings 9th International Joint Conference on AI,
  58.     Los Angeles, August 1985.
  59.  
  60. > What it does (if it's a little
  61. > smarter than Eliza) is likely to be a syntactic analysis and some
  62. > semantics on top of it, which disambiguates words, attaches PPs
  63. > correctly etc.  This is all right as long as we deal with a well-defined
  64. > sublanguage that the program has been designed to handle. There are
  65. > domains where it makes a lot of sense to assume such a sublanguage,
  66. > and several expert systems with NL interfaces exploit these.  I claim
  67. > that AI/NLP can be quite useful in such domains.
  68. >
  69. > The origin of this discussion, however, was a program aiming to be an
  70. > artificial psychotherapist.  Someone's posting advised to boil this
  71. > application down to the absolute minimal requirement: a tool that you
  72. > can talk to, that munches on the words for a second, and throws some-
  73. > thing back at you, such that some of your words reappear, and you do
  74. > that for a while, and you achieve self-elucidation.  Well, if this is the
  75. > purpose, and I don't care about what the program utters anyways, I might
  76. > as well talk to my cat.  Or to myself, which may in fact be much more
  77. > useful, because I could give myself sensible answers, couldn't I.
  78.  
  79. Speak for yourself, but don't assume everyone else has your reactions to
  80. everything. People like you would feel no need to interact with the type
  81. of program you are discussing. Agreed. But that has no implications at
  82. all for people who are not like you. Why should you object to others who
  83. find it soothing, refreshing, insightful, encouraging, or helpful in
  84. some way? (Compare writing in a diary: "Dear diary ....". Some may
  85. prefer talking to a machine that produces responses.)
  86.  
  87. Actually even a simple Eliza can produce more surprising responses than
  88. the sort of system you've described. Without having interacted with the
  89. Colby's system, I have no idea how much more advanced it is than Eliza.
  90. I thought you were objecting *in principle* to any attempt to offer
  91. people any kind of psychotherapy via a program using current expert
  92. system/natural language technology. If you are not objecting in
  93. principle but only saying you wouldn't find it useful, then perhaps we
  94. have no disagreement.
  95.  
  96. > No need for a self-elucidation program.
  97.  
  98. Not for you perhaps. So what?
  99.  
  100. > If the standards remain a little higher and we truly want an advice-
  101. > giving system, then one of my objections is that with the current state
  102. > of NLP it just won't work and would not be of any use: There is no
  103.          ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
  104. > sublanguage to be pinned down here, to which you could connect your KB
  105. > such that you get some inferences right and come back with useful
  106. > advice.  The program designer cannot anticipate what the problem of the
  107. > patient is, what s/he will be talking about, and how s/he will be talking
  108. > about it.  And the user is bound to notice at some point how little that
  109. > dialogue partner actually grasps; frustration is a likely reaction.
  110.  
  111. If your claim is an empirical one that all contemporary programs of this
  112. sort will actually be useless, then only empirical investigations can
  113. establish this, not armchair (typing-chair) pronouncements: anything
  114. else is pure prejudice unless you have a more advanced theory of how the
  115. human mind works than anyone else I know has, on the basis of which you
  116. can demonstrate exactly why nobody in need of therapy will be helped. If
  117. you had such a theory, it could probably be the basis for the design of
  118. a good therapy program.
  119.  
  120. You find it surprising that anyone should be helped by a limited
  121. "language understander". I find it surprising that some adults should be
  122. comforted by clutching a teddy bear. All that proves is that neither of
  123. us has a good theory of how human minds in general work.
  124.  
  125. > (That's the technical point.  Aside from that -- doesn't psychological
  126. > advice depend on comrehension abilities that go a little further than
  127. > literal "understanding" (getting the predicate/argument structure right)
  128. > of sentences?)
  129.  
  130. If the advice is supposed to be that of a scientist prescribing remedies
  131. based on knowledge of the system needing repair then you are right. If
  132. the "advice" is just a tool that makes some people better, then HOW it
  133. could work may be as mysterious to you as the effect of music, or drugs,
  134. or religion, or reading poetry. But that doesn't mean it can't work.
  135.  
  136. [AS]
  137. > > I'll backtrack a little: if the vendors know there's a good chance
  138. > > that because of inadequacies in the current educational system users
  139. > > of a package are likely to be fooled into attributing capabilities
  140. > > to the machine which it really does not have, then perhaps the
  141. > > machine should from time to time print out a suitable warning
  142. [MS]
  143. > This may be not so easy.  In the restricted-domain system, the program
  144. > designer can anticipate what people will say and not say.  If there is
  145. > need for a warning, it may be sth like "don't use complicated sentences,
  146. > don't abbreviate 'something' to 'sth', and talk only about bathtub-fixing
  147. > (or whatever it is) and nothing else."
  148.  
  149. That's not the sort of warning I meant. Rather something like:
  150.  
  151.     PLEASE REMEMBER THAT YOU ARE TALKING A COMPUTER PROGRAM NOT
  152.     A PERSON. THIS PROGRAM MERELY FOLLOWS RULES THAT WERE DESIGNED
  153.     TO GENERATE HELPFUL INTERACTIONS, BUT IT DOES NOT REALLY
  154.     UNDERSTAND WHAT YOU ARE SAYING, AND SOME OF THE RULES MAY
  155.     NOT WORK WELL IN YOUR CASE.
  156.  
  157.     IT IS POSSIBLE THAT YOU HAVE PROBLEMS REQUIRING PROFESSIONAL
  158.     HELP RATHER THAN THIS KIND OF COMPUTER THERAPIST.
  159.  
  160. and occasionally shorter or longer reminders. Of course people should
  161. have the option to turn this patronising stuff off, if they don't need
  162. the reminder (or think it insults their intelligence.)
  163.  
  164. [MS]
  165. > If the sublanguage cannot be restricted due to the domain (as it is
  166. > the case with the psychotherapist), it becomes quite difficult, if not
  167. > impossible, to explain to someone with no linguistics background what
  168. > the program can handle and what not.
  169.  
  170. So what? Someone given the above warning does not need to have an
  171. explanation of precise details of the program's scope and limits, if
  172. talking to the program helps them, i.e. makes them feel better.
  173.  
  174. You can tell someone that it's unsafe to drive round certain corners
  175. faster than 40kph without having to go into the detailed analysis of
  176. friction, momentum, centrifugal force, etc.
  177.  
  178. If the program were giving technical advice on how to cure diseases by
  179. administering potentially very dangerous drugs, or how to maintain a car
  180. so that it is safe to drive, etc. then I would be MUCH more concerned
  181. that the technical limits, and especially the limits of reliability of
  182. the program, were made absolutely clear to the user. (The same applies
  183. to advice given in a book. A book on baby care must make it clear that
  184. in certain cases the infant should be taken to a proper doctor for
  185. diagnosis since the diagnosis cannot be done by an untrained person
  186. using the book.)
  187.  
  188. If it turned out that for some users the program produced suicidal or
  189. other dangerous tendencies then that would be a reason for restricting
  190. its use. If the results are only either helpful or neutral, as I
  191. suspect, then much too much fuss is being made.
  192.  
  193. [MS]
  194. > One conceivable, if humble, first
  195. > step is to list upon request all the words in the system's dictionary,
  196. > but this doesn't help much, either, since it's unclear what these words
  197. > "mean" to the system, that is: what inferences does the system draw when
  198. > these words appear (depending on the context, if the system is smart
  199. > enough).  --  Yes, there are expert systems that try to "explain" how
  200. > they came up with their answer (by explicating the rule-chain), but
  201. > this again presupposes a well-restricted domain and language.
  202.  
  203. I think you are approaching this whole thing from the point of view of
  204. an expert in the field who wants to know things about the program you
  205. are interacting with. There's no reason at all to assume that every
  206. customer will share your concerns, or should share them, any more than
  207. everyone who buys a car needs to know how a carburettor works, etc.
  208.  
  209. [MS]
  210. > jeff@aiai.ed.ac.uk (Jeff Dalton) writes:
  211. [JD]
  212. > > In fact, it can be fun (at least) to "talk" with a program that
  213. > > constructs replies by randomly linking overlapping subsequences
  214. > > of earlier input (sort of like an interactive dissociated press).
  215. [MS]
  216. > Absolutely right.  But then let's keep it that way and advertise such
  217. > "dialogue programs" as "a toy you can have loads of fun with, because
  218. > it pretends to have some idea of what you're saying, yet it's comple-
  219. > tely dumb.  Come and find out how dumb it is."
  220. >
  221. > No reason to get AI involved in this business, no need to advertise
  222. > anything as a computer program that analyzes your psychatric problems
  223. > for you and helps you solving them.
  224. > Otherwise, the message will be "Come and find out how dumb AI is."
  225.  
  226. Here you seem to be saying: none of this stuff works. Well if you have
  227. tried it out in a systematic way on the sorts of people it was
  228. intended for, that's fine, and you should publish a detailed report
  229. debunking it.
  230.  
  231. On the other hand, if you haven't done that, you have no right to assume
  232. that the people who use such software will gain no benefit from it, or
  233. that in doing so they will be deceived in some way.
  234. Aaron
  235. -- 
  236. Aaron Sloman,
  237. School of Computer Science, The University of Birmingham, B15 2TT, England
  238. EMAIL   A.Sloman@cs.bham.ac.uk  OR A.Sloman@bham.ac.uk
  239. Phone: +44-(0)21-414-3711       Fax:   +44-(0)21-414-4281
  240.