home *** CD-ROM | disk | FTP | other *** search
/ The California Collection / TheCaliforniaCollection.cdr / his094 / isue11e.arj / ISUE11E.TXT
Encoding:
Text File  |  1988-05-10  |  19.7 KB  |  323 lines

  1.                              NOT WITHOUT US
  2.  
  3. A Challenge to Computer Professionals to Help Bring the Present
  4. Insanity to a Halt
  5.  
  6. By Joseph Weizenbaum, professor of computer science at MIT
  7.  
  8. (This is an English translation of a talk given in German to the
  9. Association of Computer Professionals in West Germany in July 1986. 
  10. You are welcome to reproduce and distribute it.)
  11.  
  12.  
  13. .    Whenever I come to Europe, especially to West Germany, I am
  14. amazed by the normality of everyday life: superhighways, "music" that
  15. assaults one in restaurants, the many parks, the forests of television
  16. antennas on the roofs of houses and so on.  I am amazed because of
  17. Europe's geographic position and all that follows from it.  In West
  18. Germany, for example, there is the border with the other Germany,
  19. dense with military installations of all sorts.  There are holes in
  20. the street that are intended to be filled with nuclear land mines if
  21. Russian tanks should come.  These are signs of Europe's physical and
  22. psychological proximity to the final catastrophe.
  23. .    We in America are, in a certain sense, no more distant from the
  24. catastrophe than the Europeans are.  Not only Chernobyl, but also the
  25. threat of war is everywhere.  And war is everyone's enemy.  In case of
  26. war, regardless of whether unintentionally initiated by technology
  27. allegedly designed to avert war, or by so-called statesmen or women
  28. who thought it their duty to push the button, you may die ten minutes
  29. earlier than we in fortress America, but we shall all die.
  30. .    But we have no holes in our streets for atomic land mines that
  31. are intended to delay Soviet tank regiments.  We see our missile silos
  32. only now and then -- that is, only whenever it pleases someone to show
  33. them to us on television.  No matter how passionately our government
  34. tries to convince us that the nasty Soviets are effectively as near to
  35. us as to Europeans, that they threaten us from Cuba and Nicaragua,
  36. Americans are, on the whole, quite unconvinced and untroubled by such
  37. efforts.  The American experience of war has allowed us to develop an
  38. "it can't happen here" attitude, rather than a concrete fear of what
  39. appears to be far removed from the immediate concerns of daily life.
  40. .    We know that it is emotionally impossible for anyone to live for
  41. very long in the face of immediate threats to existence without
  42. bringing to bear psychological mechanisms that will exclude these
  43. dangers from consciousness, permitting them to surface only rarely. 
  44. But when repression necessitates systematically misdirected efforts,
  45. or excludes potentially life-saving behavior, then it is time to
  46. replace it with a conscious effort to find the prod to correct action.
  47. .    That time has come for computer professionals.  We now have the
  48. power radically to turn the state of the world in directions conducive
  49. to life.
  50. .    In order to gain the necessary courage (not all of us are saints
  51. or heroes) we have to understand that for us as individuals, as well
  52. as for those we love, our present behavior is far more dangerous, even
  53. life threatening, than what healthy common sense now demands of us. 
  54. None of the weapons that today threaten every human being with murder,
  55. and whose design, manufacture and sale condemns countless people to
  56. starvation, could be developed without the earnest cooperation of
  57. computer professionals.  Without us, the arms race, especially the
  58. qualitative arms race, cannot march another step.
  59. .    What does this say to us?
  60. .    First, that we computer experts -- as well as specialists in many
  61. other technical domains -- share in the guilt of having brought about
  62. the present dangerous state of the world.  Those among us who, perhaps
  63. without being aware of it, devote our talents and strengths to death
  64. rather than to life have little right to curse politicians, statesmen
  65. and women for not bringing us peace.  It isn't enough to make pretty
  66. posters that can be carried in demonstrations.  Those who carry them
  67. must care whether their daily work helps to make possible the very
  68. devices the use of which they are protesting.
  69. .     At this point, the domain called Artificial Intelligence (AI)
  70. comes especially to mind.  Many of the technical tasks and problems in
  71. this subdiscipline of computer science stimulate the imagination and
  72. creativity of technically oriented workers particularly strongly. 
  73. Goals like making a thinking being out of the computer, giving the
  74. computer the ability to understand spoken language, making it possible
  75. for the computer to see, offer nearly irresistible temptations to
  76. those among us who have not fully sublimated our playful sandbox
  77. fantasies, or who mean to satisfy our delusions of omnipotence on the
  78. computer stage.  Such tasks are extraordinarily demanding and
  79. interesting.  Robert Oppenheimer called them sweet.  Besides, research
  80. projects in these areas are generously funded.  The required moneys
  81. usually come out of the coffers of the military, at least in America.
  82. .    It is enormously tempting and, in Artificial Intelligence work,
  83. seductively simple to lose or hide oneself in details, in subproblems
  84. and their subproblems and so on.  The actual problems on which one
  85. works -- and which are so generously supported -- are disguised and
  86. transformed until their representations are mere fables: harmless,
  87. innocent, lovely fairy tales.
  88. .    Here is an example.  A doctoral student characterized his
  89. projected dissertation task as follows.  A child, six or seven years
  90. old, sits in front of a computer display that shows a kitten and a
  91. bear, in full color.  The kitten is playing with a ball.  The child
  92. speaks to the computer system: "The bear should say 'thank you' when
  93. someone gives him something."  The system responds in a synthetic, but
  94. nevertheless pleasing voice: "Thank you, I understand."  Then the
  95. child again: "Kitty, give your ball to your friend."  Immediately we
  96. see the kitten on the computer display throw the ball to the bear. 
  97. Then we hear the bear say: "Thank you, my dear kitten."
  98. .    This is the kernel of what the system, development of which is to
  99. constitute the student's doctoral work, is to accomplish.  Seen from a
  100. technical point of view, the system is to understand spoken
  101. instructions -- that alone is not simple -- and translate them into a
  102. computer program which it is then to integrate seamlessly into its own
  103. computational structure.  Not at all trivial, and beyond that, quite
  104. touching.
  105. .    Now a translation to reality.  A fighter pilot is addressed by
  106. his pilot's assistant system: "Sir, I see an enemy tank column below. 
  107. Your orders, please."  The pilot: "When you see something like that,
  108. don't bother me, destroy the bastards and record the action.  That's
  109. all."  The system answers: "Yes, sir!" and the plane's rockets fly
  110. earthward.
  111. .    This pilot's assistant system is one of three weapons systems
  112. that are expressly described, mainly as a problem for artificial
  113. intelligence, in the Strategic Computing Initiative, a new major
  114. research and development program of the American military.  Over
  115. $600,000,000 are to be spent on this program in the next four or five
  116. years.
  117. .    It isn't my intention to assail or revile military systems at
  118. this point.  I intend this example from the actual practice of
  119. academic artificial intelligence research in America to illustrate the
  120. euphemistic linguistic dissimulation whose effect it is to hinder
  121. thought and, ultimately, to still conscience.
  122. .    I don't know whether it is especially computer science or its
  123. subdiscipline Artificial Intelligence that has such an enormous
  124. affection for euphemism.  We speak so readily of computer systems that
  125. understand, that see, decide, make judgments, and so on, without
  126. ourselves recognizing our own superficiality and immeasurable naivete
  127. with respect to these concepts.  We anesthetize our ability to
  128. evaluate the quality of our work and, what is more important, to
  129. identify and become conscious of its end use.
  130. .    The student mentioned above imagines his work to be about
  131. computer games for children, involving perhaps toy kittens, bears and
  132. balls.  Its actual and intended end use will probably mean that some
  133. day a young man, quite like the student himself -- someone with
  134. parents and possibly a girl friend -- will be set afire by an
  135. exploding missile sent his way by a system shaped by his own research. 
  136. The psychological distance between the student's conception of his
  137. work and its actual implications is astronomic.  It is precisely that
  138. enormous distance that makes it possible not to know and not to ask if
  139. one is doing sensible work or contributing to the greater efficiency
  140. of murderous devices.
  141. .    One can't escape this state without asking, again and again:
  142. "What do I actually do?  What is the final application and use of my
  143. work?  Am I content or ashamed to have contributed to this use?"
  144. .    I am reminded in this context of a well known American journalist
  145. who, during a Middle East highjacking, suggested that under certain
  146. circumstances the Israelis shoot ten Arab prisoners and, should the
  147. circumstances not change, shoot ten more the next day, and so on.  He
  148. should not have made this suggestion unless he was prepared to go
  149. personally among the prisoners and look into the eyes of the men, some
  150. of whom would hear him say, "You, you will die today."  He should have
  151. been prepared as well to hold the pistol to the heads of those he
  152. selected and command his own finger to pull the trigger.
  153. .    Just so should we ask ourselves about our own work.  Once we have
  154. abandoned the prettifying of our language, we can begin to speak among
  155. ourselves realistically and in earnest about our work as computer
  156. professionals.
  157. .    "You, colleague of many years, you are working on a machine
  158. consisting of two to the fifteenth and more microprocessors running
  159. simultaneously.  With the help of such a machine one can first
  160. simulate then construct much more efficient, smaller and lighter
  161. hydrogen bombs.  Imagine, for a moment, you were an eyewitness at
  162. Hiroshima in 1945; you saw people stripped of their skin die.  Would
  163. you want to make this happen thousands of times more?  Would you so
  164. torture a single human being with your own hands?  If you would not,
  165. regardless of what end would be served, then you must stop your work."
  166. .    One should ask similar questions with respect to other branches
  167. of computer science, for example, with respect to attempts to make it
  168. possible for computer systems to see.  Progress in this domain will be
  169. used to steer missiles like the Cruise and Pershing ever more
  170. precisely to their targets, where murder will be committed.
  171. .    Many will argue that the computer is merely a tool.  As such it
  172. can be used for good or evil.  In and of itself, it is value free. 
  173. Scientists and technicians cannot know how the products of their work
  174. will be applied, whether they will find a good or an evil use.  Hence
  175. scientists and technicians cannot be held responsible for the final
  176. application of their work.
  177. .    That point of view is manifested in the world famous Draper
  178. Laboratory, next door to the MIT building where I work.  Draper is
  179. devoted almost entirely to missile guidance and submarine navigation. 
  180. Many of the scientists employed there argue that the systems they work
  181. on can take men to the moon and bring them back, as well as guarantee
  182. that missiles aimed at Moscow will actually hit Moscow, their target. 
  183. They cannot know in advance, they say, which of these two or still
  184. other goals their work will serve in the end.  How then can they be
  185. held responsible for all the possible consequences of their work?
  186. .    So it is, on the whole, with computer professionals.  The
  187. doctoral student I mentioned, who wishes to be able to converse with
  188. his computer display, does in fact believe that future applications of
  189. his work will be exclusively in innocent applications like children's
  190. games.  Perhaps his research is not sponsored by the Pentagon's
  191. Strategic Computing Initiative; perhaps he never even heard of SCI. 
  192. How then can he be held responsible if his work is put to anti-human
  193. use?
  194. .    Here is where we come to the essence of the matter.  Today we
  195. know with virtual certainty that every scientific and technical result
  196. will, if at all possible, be put to use in military systems.
  197. .    The computer, together with the history of its development, is
  198. perhaps the key example.  But we should also think in this connection
  199. of everything that has to do with flight, or of things atomic, of
  200. communications systems, satellites, space ships, and most of the
  201. scientific achievements of the human genius.  We may then convince
  202. ourselves that in the concrete world in which we live, the burden of
  203. proof rests with those who assert that a specific new development is
  204. immune from the greed of the military.
  205. .    In these circumstances, scientific and technical workers cannot
  206. escape their responsibility to inquire about the end use of their
  207. work.  They must then decide, once they know to what end it will be
  208. used, whether or not they would serve these ends with their own hands.
  209. .    I don't believe the military, in and of itself, to be an evil. 
  210. Nor would I assert that the fact that a specific technology that has
  211. been adopted by the military is, on that ground alone, an evil.  In
  212. the present state of the evolution of the sovereign nation-state -- in
  213. other words, in the insane asylum in which we live -- each state needs
  214. a military just as every city needs a fire department.  But no one
  215. pleads for a fire station on every corner, and no one wishes for a
  216. city fire department that makes a side business of committing arson in
  217. the villages adjacent to the city.
  218. .    But we see our entire world, particularly its universities and
  219. science and engineering facilities, being more profoundly militarized
  220. every day.  "Little" wars burn in almost every part of the earth.
  221. (They serve, in part, to test the high tech weapons of the "more
  222. advanced nations.")  More than half of all the earth's scientists and
  223. engineers work more or less directly in military institutions, or in
  224. institutions supported by the military.  That is an evil that must be
  225. resisted.
  226. .    We must also recognize that it is only our already internalized
  227. habit of prettifying our language, in order not to arouse our
  228. conscience, that permits us to speak in terms of weapons and weapons
  229. delivery systems at all, when we are, in fact, discussing atomic
  230. explosives and hydrogen bombs.  Those aren't weapons, they are mass
  231. murder machines and mass murder machine delivery systems.  That is how
  232. we should speak of them: clearly, distinctly, and without evasion. 
  233. Once we recognize that a nuclear mass murder machine is nothing other
  234. than an instant Auschwitz -- without railroads or Eichmanns or Dr.
  235. Mengele, but an Auschwitz just the same -- can we continue then to
  236. work on systems that steer these devices to living cities?
  237. .    That is the question I ask.  Each of us must earnestly ask
  238. ourselves such questions and deeply consider the responses we find in
  239. ourselves.  Our answers must finally manifest themselves in our
  240. actions -- concretely, in what we do every day.
  241. .    Probably the most pandemic mental illness of our time is the
  242. almost universally held belief that the individual is powerless.  This
  243. self-fulfilling delusion will surely be offered as a counter argument
  244. to my theses.  I demand, do I not, that a whole profession refuse to
  245. participate in the murderous insanity of our time.  "That cannot be
  246. effective," I can already hear it said," That is plainly impossible. 
  247. After all, if I don't do it, someone else will."  First, and on the
  248. most elementary level, "If I don't do it, someone else will" cannot
  249. serve as a basis of moral behavior.  Every crime imaginable can be
  250. justified with those words.  For example: If I don't steal the
  251. sleeping drunk's money, someone else will.  But it is not at all
  252. trivial to ask after the meaning of effectiveness in the present
  253. context.  Surely, effectiveness is not a binary matter, an either/or
  254. matter.  To be sure, if what I say here were to induce a strike on the
  255. part of all scientists with respect to weapons work, that would have
  256. to be counted as effective.  But there are many much more modest
  257. measures of effectiveness.
  258. .    I think it was George Orwell who once wrote, "The highest duty of
  259. intellectuals in these times is to speak the simplest truths in the
  260. simplest possible words."  For me that means, first of all, to
  261. articulate the absurdity of our work in my actions, my writings and
  262. with my voice.  I hope thereby to stir my students, my colleagues,
  263. everyone to whom I can speak directly.  I hope to encourage those who
  264. have already begun to think similarly, and to be encouraged by them,
  265. and possibly rouse others out of their slumber.  Courage, like fear is
  266. catching.
  267. .    Even the most modest success in such attempts has to be counted
  268. as effective.  Beyond that, in speaking as I do, I put what I discuss
  269. here on the public agenda and contribute to its legitimation.  These
  270. are modest goals that can surely be reached.
  271. .    But, finally, I want to address such larger goals as, for
  272. example:
  273.  
  274. .    Ridding the world of nuclear mass murder devices and perhaps also
  275. of nuclear power generators.
  276.  
  277. .    So reordering the world that it becomes impossible ever again to
  278. convince workers of one country that it is a necessity of life that
  279. they feed their families on the flesh and the blood and the tears of
  280. people of other countries.  (That is, unfortunately, the fate of many
  281. workers today, and not only those who earn their daily bread in
  282. armaments factories, but equally those of us whose daily work is to
  283. sharpen high tech weapons.)
  284.  
  285. .    So reordering the world that every human being has available to
  286. him or herself all material goods necessary for living in dignity.  (I
  287. have often heard well-meaning people say that, if we apply technology,
  288. especially computer and communications technology wisely, we may reach
  289. this goal in perhaps 50 to 100 years.  But we can reach it sooner, and
  290. without waiting for technological advances.  For the obstacle is not
  291. the absence of technology, it is the absence of political will.)
  292.  
  293. .    I once heard Elie Wiesel say: "We must believe the impossible is
  294. possible."  I understood that in two different ways.  First, had we
  295. been able to believe that "the land of the poets and the thinkers"
  296. could give birth to human extermination factories, we might not have
  297. had to experience Bergen Belsen.  The impossible horror proved
  298. possible and became reality.
  299. .    But there is a more hopeful interpretation.  It seemed impossible
  300. in the America of only 150 years ago ever to abolish the slavery of
  301. the black people.  The entire economy of America's south was built on
  302. cotton.  Cotton could neither be planted nor harvested, it was
  303. believed, without the unpaid toil of thousands of human beings out of
  304. whose wretchedness the plantation master could squeeze his profit. 
  305. Nevertheless, at first only a few farseeing men and women, dreamers
  306. all, in Massachusetts, later many more citizens, came to believe the
  307. impossible was possible, that the slaves could be freed and slavery
  308. ended.
  309. .    The impossible goals I mention here are possible, just as it is
  310. possible that we will destroy the human race.  I alone can neither
  311. achieve the one nor prevent the other.  But neither can it be done
  312. without me, without us.
  313. .    I have no right to demand anything from my colleagues.  But they
  314. must know that we have the power either to increase the efficiency of
  315. the mass murder instruments we have and thereby make the murder of our
  316. children more likely, or to bring the present insanity to a halt, so
  317. that we and our children have a chance to live in human dignity.
  318. .    Let us think about what we actually accomplish in our work, about
  319. how it will be used, and whether we are in the service of life or
  320. death.
  321.  
  322. Computers for Christ - Chicago
  323.