home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1993 #3 / NN_1993_3.iso / spool / comp / ai / philosop / 7415 < prev    next >
Encoding:
Internet Message Format  |  1993-01-27  |  17.8 KB

  1. Path: sparky!uunet!ukma!usenet.ins.cwru.edu!agate!doc.ic.ac.uk!uknet!bhamcs!axs
  2. From: axs@cs.bham.ac.uk (Aaron Sloman)
  3. Newsgroups: comp.ai.philosophy
  4. Subject: Re: Colbys-Weizenbaum etc Belated Replies (2)
  5. Message-ID: <C1JHov.MHH@cs.bham.ac.uk>
  6. Date: 28 Jan 93 01:05:18 GMT
  7. Sender: news@cs.bham.ac.uk
  8. Organization: School of Computer Science, University of Birmingham, UK
  9. Lines: 370
  10. Nntp-Posting-Host: emotsun
  11.  
  12. Another belated attempt to catch up on comments on some of my earlier
  13. postings. This has two replies to Jeff Dalton.
  14.  
  15. > From: jeff@aiai.ed.ac.uk (Jeff Dalton)
  16. > Message-ID: <8197@skye.ed.ac.uk>
  17. > Date: 19 Jan 93 18:16:51 GMT
  18. > Organization: AIAI, University of Edinburgh, Scotland
  19.  
  20. > In article <C0yDFC.35x@cs.bham.ac.uk> axs@cs.bham.ac.uk (Aaron Sloman) writes:
  21. > >jeff@aiai.ed.ac.uk (Jeff Dalton) writes:
  22. > >> In article <C0rpCA.Lz3@cs.bham.ac.uk> axs@cs.bham.ac.uk (Aaron Sloman) writes:
  23. [AS]
  24. > >> >There are some people who see gods in lightning and other natural
  25. > >> >phenomena. We don't bewail the existence of those phenomena: we
  26. > >> >educate people.
  27. [JD]
  28. > >> What would people active in AI and Cog Sci say in this education?
  29. >
  30. > >> Would they say that thermostats are conscious (as dave Chalmers
  31. > >> maintains)?
  32.  
  33. [AS]
  34. > >I think he's changed his mind.
  35. > >
  36. > >But I would rather warn people against assuming that questions like
  37. > >"Is X conscious" have any clear meaning, with true or false answers.
  38. > >(I've written about this previousl so won't go on now.)
  39.  
  40. [JD]
  41. > There's certainly a way of looking at them that makes it seem that
  42. > way.  However, whenever I see arguments along those lines, I wonder
  43. > why they're being made.  It doesn't look like that great a problem to
  44. > me.  I'm a realist about consciousness.  That is, I think there's a
  45. > fact of the matter as to whether something is conscious or not
  46. > (although there may be borderline cases).
  47.  
  48. If you are talking about a person who has been asleep and you are now
  49. asking whether he's awake, then I agree there's a fact of the matter.
  50. If you are talking about someone who has been drugged and are asking
  51. whether he's recovered, then there may be a fact of the matter if it's
  52. the kind of drug whose effects are clear cut (like putting you to
  53. sleep).
  54.  
  55. But there are lots of cases where its not clear that there's a fact of
  56. the matter. For some nice examples regarding feeling pain read "Why
  57. you can't make a computer that feels pain", in D.C.Dennett's book
  58. Brainstorms. Roughly, I interpret his answer as being: "because the
  59. concept of feeling pain is so incoherent and full of inconsistent
  60. criteria that there's no way of deciding whether or not the computer
  61. feels pain." Of course that doesn't mean that toothache doesn't exist
  62. in humans.
  63.  
  64. Similarly, I think we can ask whether a chimp is still asleep or has
  65. regained consciousness. More generally, there are many categories of
  66. things of type X such that for individuals of type X there are clear
  67. transitions between being conscious and being unconscious, though for
  68. all of them there may also be unclear cases where our criteria come
  69. apart (like the individual who writhes and screams during the operation,
  70. but immediately afterwards remembers absolutely nothing). Lets call
  71. categories like X "mindful" categories: people are mindful, and I claim
  72. chimps are. I don't have any views regarding amoebas.
  73.  
  74. When you start asking which CATEGORIES of things are mindful, i.e. which
  75. can be conscious and which can't, as opposed to which things in some
  76. particular mindful category are or aren't conscious, then it is not
  77. clear that there is any fact of the matter. Is a fly conscious? An
  78. amoeba? A two month human embryo? A machine of type so and so?
  79.  
  80. I often compare this with the following: we can ask whether it's
  81. noon or midnight or 5pm in London, or in New York, or Moscow, because
  82. the question is clear cut. If you point at a bit of the moon and ask
  83. is it noon, or midnight or 5pm there, you may get different answers,
  84. depending on whether you use as your criterion the angular elevation of
  85. the sun above the horizon at that point on the moon, or whether you use
  86. a criterion based on projecting our timezones outwards perpendicular to
  87. the earth's surface, as you probably would for someone flying a plane or
  88. a balloon.
  89.  
  90. There's NO fact of the matter about which is the right way to decide
  91. what time it is at a particular place on the moon. Similarly there's no
  92. right way to decide how to project our criteria for saying whether
  93. something is conscious or not to other types of animals or machines,
  94. where the criteria fall apart.
  95.  
  96. > ...There's a problem about
  97. > whether we can know which is the case,
  98.  
  99. Not when there's nothing to be the case, because the question is
  100. muddled, incoherent, etc.
  101.  
  102. > and there's a problem of making
  103. > it clear just what we're talking about by using the word "conscious"
  104. > (especially since it has a number of different meanings).  But it
  105. > seems to be that our aim ought to be to solve these problems as best
  106. > we can rather to argue that we cannot.
  107.  
  108. Yes, I think we ought to solve the problems. Here's how: we first
  109. produce a good theoretical overview of the types of designs that can
  110. produce various kinds of behavioural capabilities more or less like
  111. ours. We then analyse the different kinds of capabilities that are
  112. capable of being generated by different kinds of mechanisms covered by
  113. the overview. We then give technical names for these different sorts of
  114. capabilities (and states, and processes, etc.). We could then CHOOSE one
  115. of these as closest to the ordinary use of the word "conscious" and use
  116. that as our new technical definition of the word. It would then be a
  117. fact of the matter whether amoebae, flies, mice, chimps, etc. etc. were
  118. or were not conscious.
  119.  
  120. Compare: we used to have words for different kinds of stuff, but they
  121. had no clear, precise, definitions to cover all cases. The development
  122. of physics and chemistry provided a good generative basis for a taxonomy
  123. of kinds of stuff (chemical elements of various sorts, isotopes,
  124. chemical compounds, mixtures, solutions, alloys, etc. etc.). Within this
  125. array of kinds generated by the new science, some kinds came very close
  126. to previous non-technical uses of words like "water" (H20), "salt"
  127. (NaCl), "carbon", "iron", etc.
  128.  
  129. It then became a fact of the matter whether something was water or not,
  130. or water plus impurities, etc., whereas previously there were ill
  131. defined boundaries.
  132.  
  133. Of course, someone who thinks he knows what consciousness "REALLY" is
  134. from first hand introspective experience, will reject all this. What
  135. I've found is that that sort of tendency is very-wide spread, deep
  136. rooted, and hard to argue against. In fact it's very like a religious
  137. conviction in some cases. Philosophical therapy over a long period
  138. sometimes cures such people. But only sometimes. (It took me a long time
  139. to get rid that delusion.)
  140.  
  141. [JD]
  142. > Earlier you wrote:
  143. (as eliza might have said :->)
  144. [AS]
  145. >   People who use the words "conscious", "consciousness" in technical
  146. >   discussions, generally *think* they know what they are talking
  147. >   about, but are normally totally muddled, between all sorts of
  148. >   different interpretations sometimes mixed up with mumbo jumbo
  149. >   concepts to do with magical inaccessible entities and processes.
  150.  
  151. Well, I've tried to unravel some of that, in my remarks above.
  152.  
  153. >
  154. > My impression is that people generally do know what they're talking
  155. > about, are not totally muddled,
  156.  
  157. Well it's hard to be sure without discussing with them at length, and
  158. asking them to define precisely what the question is that they are
  159. asking about fleas, mice, embryos, or machines, when they ask whether
  160. these are capable of being conscious (i.e. are "mindful" categories.)
  161. I don't dispute that they understand the ordinary use of English
  162. phrases like "He's regaining consciousness now".
  163.  
  164. Also the fact that people *claim* to know what they are talking about,
  165. or *appear* to know what they are talking about, doesn't mean that they
  166. *do* know what they are talking about. There are lots of cases where
  167. people don't discover till long afterwards, or sometimes never at all,
  168. that they have been using incoherent concepts. I think Aristotle thought
  169. he knew what he was talking about when he wondered where the "natural"
  170. place was for earth, water, fire, air, etc. Before Einstein some people
  171. may have thought they understood the concept of continuing identity of a
  172. spatial location (as opposed to a continuing set of spatial relations to
  173. other things).
  174.  
  175. We are not authorities on whether we attach definite meanings to our
  176. words, for we easily deceive ourselves.
  177.  
  178. > ...and don't mix in mumbo jumbo
  179. > concepts or magical entities and processes.  (I'm leaving out
  180. > "inaccessible" here.)  Of course, when there is muddle and magic,
  181. > it's worth pointing this out.  But I'm very suspicious of this
  182. > sort of general accusation, divorced from all concrete instances.
  183.  
  184. Point taken. I took various verbal cues in previous contributions as
  185. evidence, because they looked like the turns of phrase I've often heard
  186. used by people who I had talked to in more depth, and (in my view) found
  187. to be muddled, etc. and often unwittingly committed to the existence of
  188. some kind of special stuff divorced from the realm of scientific
  189. investigation, inacessible from "outside", etc.etc. and somehow
  190. (magically?) capable of producing events in the physical world.
  191.  
  192. Even distinguished scientists can fall into this sort of trap (which was
  193. my conclusion after reading the well known book on consciousness and the
  194. self by Eccles and Popper (whose exact title I forget).
  195.  
  196. [AS]
  197. > >I'll backtrack a little: if the vendors know there's a good chance
  198. > >that because of inadequacies in the current educational system users
  199. > >of a package are likely to be fooled into attributing capabilities
  200. > >to the machine which it really does not have, then perhaps the
  201. > >machine should from time to time print out a suitable warning
  202.  
  203. [JD]
  204. > Humm.  I think there's a chance that education in AI will lead
  205. > people to attribute capabilities to the machine which it really does
  206. > not have.  I gave an example a while back of a class in Edinburgh
  207. > where students argued, with the support of the instructor, that
  208. > Eliza has some real understanding, although only a small amount of
  209. > it.  (Ie, that the difference between Eliza and, say, a human
  210. > was essentially only a matter of degree.)
  211.  
  212. [AS]
  213. A tendency to believe that understanding is all-or-nothing (and
  214. similarly for consciousness, etc. etc.) often goes with the sort of
  215. muddle I was talking about. If a detailed analysis of human
  216. understanding of language shows that it involves 173 different
  217. capabilities, and if Eliza has 4 of them, well then I'd say there's
  218. nothing wrong with saying that it has a small degree of understanding.
  219. (I've enlarged on this in my paper on understanding in IJCAI-85)
  220.  
  221. Saying it's "only" a matter of degree may imply that there's a continuum
  222. of cases. If that's what you are objecting to, I agree. Design space is
  223. full of DIScontinuities, and some of them make a very large difference
  224. to the capabilities of instances of designs.
  225.  
  226. But arguing about which subset of capabilities is really required for
  227. understanding (or even a "teeny bit of understanding") is like arguing
  228. over which criterion is the real one for deciding on the time on the
  229. moon. It's just a silly argument as there is no answer.
  230.  
  231. [JD]
  232. > I think there's a very strong tendency to see some real understanding
  233. > behind any use of natural language.
  234.  
  235. That's because there usually is: e.g. in the case of the computer
  236. program there's the understanding of the programmers that lies behind
  237. what the computer prints out. If you are tempted to argue about whether
  238. the machine *itself* has "real" understanding as opposed to "fake"
  239. understanding, or "counterfeit" understanding, or "primitive"
  240. understanding, or "partial" understanding, etc. then I think it's a
  241. pointless argument.
  242.  
  243. Of course there's a different point, namely that people can be deceived
  244. by appearances, just as people have been deceived into thinking the
  245. earth is flat, the sun goes round the earth, the gods are punishing
  246. them, etc. etc. But I didn't think you were talking about that.
  247.  
  248. > ..We can see the other side of this
  249. > when we consider how hard it often was for people to see how a
  250. > computer could use symbols that are meaningful to us rather than being
  251. > confined to numbers.  For instance, there are people in offices
  252. > everywhere who have had to divide all recognized work activities into
  253. > numerically designated categories and who accepted the explanation
  254. > that they had to do this because the computer required it.
  255.  
  256. This is beyond my experience. There are, I admit, lots of people who use
  257. numbers gratuitously instead of informative descriptions, e.g. many
  258. would-be scientists (e.g. psychologists who suffer from physics-envy).
  259. I don't see how teaching people about AI will confuse them about this.
  260.  
  261. > Education ought to be able to do something about this, but I think
  262. > that education would have to be somewhat "anti-AI" (and anti-TT), at
  263. > least as the debate is currently conducted.
  264.  
  265. Strange to read that coming from you, given that you, of all people,
  266. know full well that computers are capable of doing all kinds of
  267. non-numerical things, and that AI in particular has all sorts of
  268. non-numerical techniques. But I expect I've misinterpreted you.
  269.  
  270. Now your second article:
  271. > From: jeff@aiai.ed.ac.uk (Jeff Dalton)
  272. > Subject: Re: Colbys-Weizenbaum and Overcoming Depression 2.0
  273. > Message-ID: <8199@skye.ed.ac.uk>
  274. > Date: 19 Jan 93 19:20:36 GMT
  275.  
  276. > In article <C0z7o1.ADI@cs.bham.ac.uk> axs@cs.bham.ac.uk (Aaron Sloman) writes:
  277. > >arodgers@dcs.qmw.ac.uk (Angus H Rodgers) writes:
  278. > >>
  279. > >> I'll change the question, then, to one which you are less likely
  280. > >> to find ambiguous: would it be necessary for the mechanical
  281. > >> psychotherapist to be able to *feel* anything? (With apologies to
  282. > >> Roger Penrose, and Hans Christian Andersen.)
  283. [AS]
  284. > >Well, the English word "feel" is almost as bad as the word
  285. > >"conscious". Are you asking whether the machine would need to be
  286. > >able to
  287. > >    feel the surface it is resting on
  288. > >    feel the breeze
  289. > >    feel itself falling
  290. > >    feel how far it is from the wall
  291. > >    feel the roughness of the wall
  292. > >    feel that it is getting close to finding an answer to a question
  293. > >    feel that it is getting hotter
  294. > >    feel hot
  295. > >    feel tired
  296. > >    feel that the weather is likely to turn wet
  297. > >    feel sure that Fermat's last theorem is provable
  298. > >    feel angry      (compare "be angry", which is quite different)
  299. > >    feel depressed  (compare "be depressed")
  300. > >    feel inclined to refuse to answer
  301. > >    feel unwilling to give up
  302.  
  303. [JD]
  304. > This looks to me like it might be a solvable problem.
  305.  
  306. Yes - that's my point. For a subset of very specific cases at least we
  307. can begin to specify criteria that might be used for discriminating
  308. those cases.
  309.  
  310. But then someone comes along and says: "Ah it may feel in that sense,
  311. but does it REALLY feel?" And then you probe a bit and find that they
  312. can't define what they mean except by saying "Well YOU can feel things
  313. can't you? so you know what feeling is from your own introspective
  314. experience", etc. and then the argument gets bogged down because they
  315. don't appreciate that you cannot define anything by pointing at an
  316. instance, even pointing inwardly. (Compare consciousness.)
  317.  
  318. [JD]
  319. > BTW, doesn't Dennett have a paper on whether a robot can feel pain
  320. > (in _Brainstorms_)?  Does he manage to pin "feel pain" down well enough?
  321.  
  322. Yes the paper is relevant -- referred to above. My interpretation is
  323. that he shows how incoherent the concept is as soon as you move beyond
  324. the "standard" situations in which we learn to use the word "pain".
  325.  
  326. [AS]
  327. > >Such questions are often not so much a healthy expression of
  328. > >intellectual curiosity as an attempt to use rhetorical questions to
  329. > >challenge what is felt as a threat of some kind (e.g. Weizenbaum's
  330. > >threat that taking AI seriously somehow degrades mankind).
  331.  
  332. [JD]
  333. > I think this is a rather dubious tactic, Aaron.  You don't come
  334. > right out and say "you're just using rhetorical questions against
  335. > what you see as a threat" (perhaps because you don't think it's so),
  336. > but you try to create the impression that there's something suspect
  337. > about "such questions".
  338.  
  339. I wrote "often". I don't know what proportion of cases need this
  340. diagnosis. It's certainly true of very many people I have argued
  341. with in real life. It's hard to be sure from typed contributions
  342. in comp.ai.philosophy! So perhaps I over-react to some of the familiar
  343. sounding turns of phrase and rhetorical questions.
  344.  
  345. [AS]
  346. > >I was referring in a rather sloppy fashion to an old philosophical
  347. > >notion -- some people think that the only way you can possibly know
  348. > >what "consciousness" is, is by having it, and that's because the
  349. > >relevant states and processes are assumed not to be part of the
  350. > >physical universe but somehow part of a different (spiritual,
  351. > >mental) realm of being, not accessible via physical perception or
  352. > >measurement, but only via a kind of introspection.
  353. > >
  354. > >Often such thinking implies a notion of a kind of magic whereby
  355. > >these non-physical mental or spiritual entities can cause
  356. > >occurrences in the physical world or possibly vice versa.
  357. [JD]
  358. > Tar them with dualism, eh?  I don't think this sort of thinking is
  359. > actually very prevalent on the net (at least in AI newsgroups).  At
  360. > least I haven't noticed anyone defending substance dualism (although
  361. > Dave Chalmers defended property dualism).
  362.  
  363. Dualism of a sort often lurks unacknowledged beneath the surface of
  364. hostility to AI.
  365. (Though not in the case of Searle or Penrose.)
  366.  
  367. Scepticism about AI is different from hostility: I am deeply agnostic
  368. about what AI can or cannot achieve. But I think the best way to find
  369. out is to engage in AI research with an open mind. Currently I don't
  370. think we even understand what the problems are, let alone whether AI can
  371. solve them.
  372.  
  373. But doing AI is the best way to learn.
  374.  
  375. Aaron
  376. --
  377. -- 
  378. Aaron Sloman,
  379. School of Computer Science, The University of Birmingham, B15 2TT, England
  380. EMAIL   A.Sloman@cs.bham.ac.uk  OR A.Sloman@bham.ac.uk
  381. Phone: +44-(0)21-414-3711       Fax:   +44-(0)21-414-4281
  382.