home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #27 / NN_1992_27.iso / spool / comp / ai / philosop / 6831 < prev    next >
Encoding:
Text File  |  1992-11-17  |  4.9 KB  |  106 lines

  1. Newsgroups: comp.ai.philosophy
  2. Path: sparky!uunet!stanford.edu!Csli!avrom
  3. From: avrom@Csli.Stanford.EDU (Avrom Faderman)
  4. Subject: Re: Brain and mind (killing boring wife)
  5. Message-ID: <1992Nov17.235643.21480@Csli.Stanford.EDU>
  6. Organization: Stanford University CSLI
  7. Date: Tue, 17 Nov 1992 23:56:43 GMT
  8. Lines: 96
  9.  
  10.  
  11. In article <1992Nov11.172601.632@cine88.cineca.it> 
  12. avl0@cine88.cineca.it writes:
  13.  
  14. | In article <1992Nov4.234723.22038@Csli.Stanford.EDU> 
  15. | avrom@Csli.Stanford.EDU (Avrom Faderman) writes:
  16. ...
  17. |> Imagine a society 
  18. |> that was generally evil.  All the customs, all the mores of this society 
  19. |> are complete inverses of our own--wanton torture is considered a perfectly 
  20. |> acceptible way to pass an afternoon.  I think even a hard-core anti-
  21.     mechanist
  22. |> would agree that, without exposure to other societies, it would be next to 
  23. |> impossible for any member to abandon these evil ways.  But does this mean 
  24. |> that they are not morally responsible for their actions?
  25. ...
  26. | Moral judges actions in relation with a Fundamental Goal.
  27. | The society you have described is a moral one if the Fundamental Goal of 
  28.    its people
  29. | is to have a funny afternoon.
  30.  
  31. Well, I guess this is a matter of intuition.  By my lights though (and 
  32. I think most people will agree with me on this one), a society that 
  33. gleefully tortures innocent people in a neverending quest to have a 
  34. funny afternoon is an immoral one.
  35.  
  36. | Responsibility is merely a consequence of free-will, no matter if the action 
  37. | is moral or not.
  38.  
  39. Even were I to accept your previous claim about Fundamental Goals (and I 
  40. don't), I don't see how it would obligate me to accept this.  It still 
  41. doesn't strike me as obvious (or even true).
  42.  
  43. |> it is by 
  44. |> no means clear to me that you could sell or buy a robot that had 
  45. |> considerable functional similarity to a human.
  46. ...
  47. | you acknowledge that human beings have some value, 
  48. | you try to derive it from his functionality.  Then, robots which have a
  49.    similar
  50. | functionality, have the similar value.
  51. | Let me be a little presumptuous, I have just built the dreamed android. 
  52. | It's Me its creator, really are you saying that I can not switch it off?!
  53. | *I* wanted it to behave like my self, *I* wanted it to have e.g. 
  54.    electronic
  55. | dreams to re-organise acquired information, *I* want it to stop living,
  56.    why not?
  57. ...
  58. | Old Romans were much coherent with a materialistic view of Man.
  59. ...
  60. | Hitler also was coherent: mad people have less functionality (or not at all) 
  61. | than others humans THEN they are less (or not at all) human than the others, 
  62. | and he killed them.
  63.  
  64. My fault for using a slightly ambiguous term (functional).  I don't mean 
  65. the organism's _use_ to society.  I mean internal structure.  If an 
  66. organism has internal states corresponding to pleasure and pain in 
  67. humans, and these internal states interact with one another, the 
  68. organism's behaviour, and the rest of the organism's internal states in 
  69. the way that human pleasure an pain interact with the analogous human 
  70. structures, the organism is functionally equivalent to a human (the way 
  71. I'm using the term).
  72. I said in the previous post that I wasn't going to try to give a positive 
  73. argument that functional similarity to a human was sufficient for being 
  74. a moral patient, but I doubt you would consider it intuitive.  So, here's 
  75. a sketchy attempt at an argument.
  76.  
  77. When I say of something that it is moral, I don't mean it jibes with the 
  78. Fundamental Goal of my society (which I may disagree with) or with some 
  79. Platonist Form of the Good (which I have no evidence exists).  I am 
  80. instead expressing my approval of it--I am letting it be known that 
  81. I have a reaction of applause when I contemplate it.  Now, what 
  82. kinds of actions trigger (internal) applause in me?  Or rather, more 
  83. to the point of the "Killing Boring Wife" example, what kinds of actions 
  84. trigger outrage in me?  
  85. When I view another entity, and see that it has all the internal workings 
  86. that I identify in myself, it is quite natural and involuntary that I 
  87. empathize with it.  When I witness its pain, I imagine _myself_ in 
  88. such pain, and I am strongly inclined to try and put a stop to it (by 
  89. locking the perpetrator up, for example).  This, I would advocate, is 
  90. much of the basis of morality--witness the fact that the first step 
  91. in inspiring people to commit atrocities has historically been the 
  92. alienization and dehumanization (the denial of functional similarity) of 
  93. the prospective victim.
  94. When I empathize with the robot you create, the knowledge that you made 
  95. it does nothing to diminish this, any more than if you were a genetic 
  96. engineer that created a human from basic organic molecules, the 
  97. knowledge of this would kill my empathy with the product of your 
  98. efforts.
  99.  
  100.  
  101. -- 
  102. Avrom I. Faderman                  |  "...a sufferer is not one who hands
  103. avrom@csli.stanford.edu            |    you his suffering, that you may 
  104. Stanford University                |    touch it, weigh it, bite it like a
  105. CSLI and Dept. of Philosophy       |    coin..."  -Stanislaw Lem
  106.