home *** CD-ROM | disk | FTP | other *** search
/ The Hacker's Encyclopedia 1998 / hackers_encyclopedia.iso / zines / cud / cud959a.txt < prev    next >
Encoding:
Text File  |  2003-06-11  |  52.8 KB  |  947 lines

  1.  
  2. Computer underground Digest    Sun  July 27, 1997   Volume 9 : Issue 59
  3.                            ISSN  1004-042X
  4.  
  5.        Editor: Jim Thomas (cudigest@sun.soci.niu.edu)
  6.        News Editor: Gordon Meyer (gmeyer@sun.soci.niu.edu)
  7.        Archivist: Brendan Kehoe
  8.        Shadow Master: Stanton McCandlish
  9.        Shadow-Archivists: Dan Carosone / Paul Southworth
  10.                           Ralph Sims / Jyrki Kuoppala
  11.                           Ian Dickinson
  12.        Field Agent Extraordinaire:   David Smith
  13.        Cu Digest Homepage: http://www.soci.niu.edu/~cudigest
  14.  
  15. CONTENTS, #9.59 (Sun, July 27, 1997)
  16.  
  17. File 1--Paul Taylor's Forthcoming "Hacker" Book (excerpt)
  18. File 2--Chapter 6 of P. Taylor's book - "Them and Us" (part 1 of 2)
  19.  
  20. CuD ADMINISTRATIVE, EDITORIAL, AND SUBSCRIPTION INFORMATION APPEARS IN
  21. THE CONCLUDING FILE AT THE END OF EACH ISSUE.
  22.  
  23. ---------------------------------------------------------------------
  24.  
  25. Date: 18 Jun 97 17:25
  26. From: P.A.Taylor@sociology.salford.ac.uk
  27. Subject: File 1--Paul Taylor's Forthcoming "Hacker" Book
  28.  
  29. ((MODERATORS' NOTE:  A few years ago, Paul Taylor solicited
  30. information on "hackers" in a CuD post for his Phd dissertation.
  31. He completed it, and it will soon be published by Routledge and
  32. Kegan Paul.  The publication date is anticipated to be in early
  33. 1998, and the tentative title: HACKERS: A STUDY OF A
  34. TECHNOCULTURE, although Paul is still searching for (and is open
  35. to) suggestions.  Sadly, though, publishers usually suggest the
  36. final title and their choice usually prevails.  The estimated
  37. price for the paperback version should be about 15 pounds, which
  38. would make the US version about $20.
  39.  
  40. CuD will run a chapter, which will be divided into two sections
  41. of this CuD issue because of length)).
  42.  
  43.   ------------------
  44.  
  45. Jim has kindly agreed to put up on CuD an excerpt from my
  46. forthcoming book on hackers.  Its present form is straight from
  47. my PhD thesis but I would like to use peoples' feedback to help
  48. me up-date my work prior and to make it more accessible to a
  49. non-academic audience.  If you have any comments or views on my
  50. portrayal of hacking then please contact me -
  51. p.a.taylor@sociology.salford.ac.uk.
  52.  
  53. The reason for putting up the posting is
  54.  
  55. a) to thank and give something back to the original people who
  56. contributed.
  57. b) to stimulate further interest that will help in the up-dating
  58. of the original work - specifically ...
  59.   i) what do people think are the major developments in the CU over
  60.       the last 3/4 years?
  61.   ii) what do people think are the major differences (if any)
  62.       between the CU scene in the US as compared to Europe/rest of the
  63.       world?
  64.  
  65. There's an open invite for people to contact me and discuss the
  66. above and/or anything else that they think is relevant/important.
  67. Below is a brief overview of
  68. the eventual book's rationale and proposed structure.
  69.  
  70. Hackers: a study of a technoculture
  71.  
  72. Background
  73.  
  74. "Hackers" is based upon 4 years PhD research conducted from
  75. 1989-1993 at the University of Edinburgh.  The research focussed
  76. upon 3 main groups: the Computer Underground (CU); the Computer
  77. Security Industry (CSI); and the academic community.  Additional
  78. information was obtained from government officials, journalists
  79. etc.
  80.  
  81. The face-to-face interview work was conducted in the UK and the
  82. Netherlands.  It included figures such as Rop Gongrijp of
  83. Hack-Tic magazine, Prof Hirschberg of Delft University, and
  84. Robert Schifreen.  E-mail/phone interviews were conducted in
  85. Europe and  the US with figures such as Prof Eugene Spafford of
  86. Purdue Technical University, Kevin Mitnick, Chris Goggans and
  87. John Draper.
  88.  
  89. Rationale
  90.  
  91. This book sets out to be an academic study of the social
  92. processes behind hacking that is nevertheless accessible to a
  93. general audience.  It seeks to compensate for the "Gee-whiz"
  94. approach of many of the journalistic accounts of hacking.  The
  95. tone of these books tends to be set by their titles: The Fugitive
  96. Game; Takedown; The Cyberthief and the Samurai; Masters of
  97. Deception - and so on ...
  98.  
  99. The basic argument in this book is that, despite the media
  100. portrayal, hacking is not, and never has been, a simple case of
  101. "electronic vandals" versus the good guys: the truth is much more
  102. complex.  The boundaries between hacking, the security industry
  103. and academia, for example, are often relatively fluid.  In
  104. addition, hacking has a significance outside of its immediate
  105. environment: the disputes that surround it symbolise society's
  106. attempts to shape the values of the informational environments we
  107. will inhabit tomorrow.
  108.  
  109.  
  110.  
  111. Book Outline
  112.  
  113. Introduction - the background of the study and the range of
  114. contributors
  115.  
  116. Chapter 1 - The cultural significance of hacking: non-fiction and
  117. fictional portrayals of hacking.
  118.  
  119. Chapter 2 - Hacking the system:  hackers and theories of technological change.
  120.  
  121. Chapter 3 - Hackers: their culture.
  122.  
  123. Chapter 4 - Hackers: their motivations
  124.  
  125. Chapter 5 - The State of the (Cyber)Nation: computer security weaknesses.
  126.  
  127. Chapter 6- Them and Us: boundary formation and constructing "the other".
  128.  
  129. Chapter 7 - Hacking and Legislation.
  130.  
  131. Conclusion
  132.  
  133. Paul Taylor
  134.  
  135. ------------------------------
  136.  
  137. Date: Mon, 16 Jun 1997 14:05:55 +0100
  138. From: P.A.Taylor@sociology.salford.ac.uk
  139. Subject: Preview of "Hacker" book: THEM AND US (Part 1 of 2)
  140.  
  141. Chapter 6 - 'Them and us'
  142.  
  143. 6.1 INTRODUCTION
  144.  
  145. 6.2 BOUNDARY FORMATION - 'THEM AND US'
  146. 6.2.1 The evidence - Hawkish strength of feeling
  147.  
  148. 6.3 REASONS FOR 'THEM AND US'
  149. 6.3.1 Ethical differences between the CSI and CU
  150. 6.3.2 The fear of anonymity
  151.  
  152. 6.4 THE ETHICAL BASIS OF THE 'THEM AND US' SCENARIO
  153. 6.4.1 Blurred and vestigial ethics
  154. 6.4.2 Industry examples of blurred ethics
  155. 6.4.3 Technology and ethics
  156.  
  157. 6.5 BOUNDARY FORMATION - ROLE OF THE MEDIA
  158.  
  159. 6.6  BOUNDARY FORMATION PROCESS AND THE USE OF  ANALOGIES
  160.  
  161. 6.7 THE PROJECT OF PROFESSIONALISATION
  162. 6.7.1 Creation of the computer security market and professional  ethos
  163. 6.7.2 Witch-hunts and hackers
  164. 6.7.3 Closure - the evolution of attitudes
  165.  
  166. 6.8 CONCLUSION
  167.  
  168.  
  169.  
  170. 6.1 INTRODUCTION
  171.  
  172. Hackers are like kids putting a 10 pence piece on a railway line to see if
  173.  the train can bend it, not realising that they risk de-railing the whole
  174.  train (Mike Jones: London interview).
  175.  
  176.  The technical objections of the hawks to hacking, which reject the argument
  177.  advocating cooperation with hackers, are supplemented by their ethical
  178.  objections to the activity, explored in this chapter.  Previous chapters
  179.  have shown that there is some interplay and contact between the hacker
  180.  community and the computer security industry, as well as the more
  181.  subsidiary group: the academics1.  The much more common relationship
  182.  between hackers and the computer security industry, however, is the
  183.  thinly-veiled or open hostility evident in the opinions of the hawks.
  184.  This chapter examines the basis of this hostility.  The groups' contrasting
  185.  ethical stances are highlighted, and their origins explained.  The
  186.  technical evolution of computing is shown as creating new conditions that
  187.  demand ethical judgements to be made with respect to what  constitutes
  188.  ethical use of computer resources.  The CU and the CSI have different
  189.  ethical interpretations that are expressed in a process of debate.  This
  190.  debate then becomes part of a boundary forming process between the two
  191.  groups.  Two identifiable influences upon such ethical judgements are the
  192.  age of the person making the judgement, and the extent to which technology
  193.  plays a part in the situation about which an ethical judgement has to be
  194.  made.
  195.  Elements of the CSI and the CU  stand in identifiable opposition to each
  196.  other.  This chapter shows how this opposition is maintained and
  197.  exacerbated as part of a boundary forming process.  Ethical differences
  198.  between the two groups are espoused, but examples are given of the extent
  199.  to such differences are still in a process of formation within computing's
  200.  nascent environment.  Thus the type of mentality within the CU that fails
  201.  to accept any ethical implications from phone-phreaking or hacking is
  202.  sharply opposed by the CSI, whose typical sentiment  is that computer users
  203.  such as hackers have forgotten "that sometimes they must leave the playpen
  204.  and accept the notion that computing is more than just a game" (Bloombecker
  205.  1990: 41).  This contention that hackers have failed to psychologically
  206.  "come out of the playpen" is illustrative of some of the marked ethical
  207.  differences between the two groups.
  208.  This chapter, however, draws attention to examples of the more ambiguous
  209.  and blurred ethical situations within computing, and how an on-going
  210.  process of negotiation, group differentiation and boundary formation, is
  211.  required to maintain such differences between the groups.  The ethical
  212.  complexities surrounding computing are becoming increasingly important as
  213.  it becomes a more prevalent aspect of everyday life.  The CSI, as a part of
  214.  a dominant social constituency of business and political interests, is
  215.  involved in a process of attempting to impose its interpretation of such
  216.  ethical issues upon computing.  Advocates of different ethical approaches
  217.  find themselves increasingly separated by moral boundaries that have become
  218.  codified into professional regulations and government legislation.
  219.  The "them and us" scenario caused by the contrasting ethical stances is
  220.  fuelled by the media's portrayal of hackers as unethical outsiders.   The
  221.  most obvious manifestation of this is the evolution of attitudes held
  222.  towards hackers by the dominant social constituency.  The 'true hackers' of
  223.  MIT were active from the late 1950's and were instrumental in the
  224.  development of both hardware and software, whereas  hackers are now largely
  225.  perceived as a problem to be legislated away.  This evolution in
  226.  perceptions is simultaneously a result of the emergence of the CSI as a
  227.  constituency, and a causal factor in that development.   To illustrate the
  228.  process of boundary formation we note comparisons of the debate surrounding
  229.  Robert Morris Jr's intrusion into the internet system with the language and
  230.  attitudes displayed during the Salem Witch trials (Dougan and Gieryn 1988).
  231.   The press, in particular, has been particularly active in the process of
  232.  stereotyping and sensationalising hacking incidents, the process helping to
  233.  produce a deviant group status for hackers.
  234.   The chapter also includes analysis of one of the most interesting aspects
  235.  of the boundary forming process between the CSI and the CU, namely, the way
  236.  in which physical comparisons are made between situations that arise in
  237.  computing and the real world.  These metaphors are used as explanatory
  238.  tools and also in the production and maintenance of the value systems that
  239.  separate the two groups.  The physical analogies used seem to fulfil both
  240.  of these functions.  They allow what would otherwise be potentially
  241.  complicated technical and ethical questions to be approached in a more
  242.  manageable and everyday manner, yet they also contribute directly to the
  243.  formation of ethical boundaries due to their particular suitability as a
  244.  means of sensationalising hacking issues.
  245.  Public commentators such as Gene Spafford have made various polemical
  246.  statements of what hacking and its implications are: employing a hacker, is
  247.  like making 'an arsonist your fire chief, or a paedophile a school
  248.  teacher.'  The actions of hackers are thus forcefully taken out of the
  249.  realms of 'cyberspace' and reintroduced into the concrete realm of
  250.  threatening real world situations.  If the comparison is accepted, then the
  251.  danger and harm to be suffered from such actions are more readily
  252.  understood and feared, and hackers as a group may then be effectively
  253.  viewed as moral pariahs.  With reference to Woolgar's (1990) attempt to
  254.  link computer virus stories with the prevalence of 'urban/contemporary
  255.  legends', it can be pointed out that the physical analogies used by the CSI
  256.  in discussions of computer ethics emphasise the transgressive 'breaking and
  257.  entering' qualities of hacking2.  In contrast, the CU reject such dramatic
  258.  analogies and prefer to emphasise the intellectual and pioneering qualities
  259.  of hacking which we will subsequently analyse with respect to their chosen
  260.  analogies: comparisons of hacking's intellectual nature and frontier ethos
  261.  to a game of chess and the Wild West, respectively.
  262.  
  263. 6.2 BOUNDARY FORMATION - 'THEM AND US'
  264.  
  265.  Dougan and Gieryn (1988), like Meyer and Thomas (1990), have compared the
  266.  process of boundary formation within computing with the historical examples
  267.  of formalised witch trials.  This is an extreme process of 'boundary
  268.  formation' whereby groups differentiate themselves by marginalising other
  269.  groups thereby establishing their own identity.  "Witch hunts" occur in
  270.  periods of social transition and we have seen in Chapter 3 that IT is
  271.  undergoing a period of social change.  The economic order is attempting to
  272.  impose property relations upon information, yet its changing nature
  273.  undermines its properties as a commodity.
  274.  Computer counter-cultures are increasingly perceived as a threat to the
  275.  establishment's ability to control technology for its own purposes.  The
  276.  initial awe and even respect with which hackers were originally viewed as
  277.  'technological wizards' has given way to the more frequent hawkish
  278.  perception that they are 'electronic vandals'.  Dominant social groups
  279.  initially mythologise and then stigmatise peripheral groups that do not
  280.  share their value-structure.  In the case of hackers, this tendency has
  281.  been exacerbated by the fear and ignorance encouraged as a result of
  282.  hacking's covert nature and the difficulties of documenting the activity.
  283.  
  284.  Dougan and Gieryn (1988), amongst others, point out that such concepts of
  285.  deviancy have a function.  Put simply, a community only has a sense of its
  286.  community status by knowing what it is not.  Distancing themselves from
  287.  outsiders helps members within that group feel a sense of togetherness.
  288.  Furthermore, cultures that emphasise certain values over others will tend
  289.  to label as deviant those activities which threaten its most prized value.
  290.  In the particular case of hackers, their stigmatisation and marginalisation
  291.  has occurred because they have threatened, with their information-sharing
  292.  culture, one of the basic crutches of the capitalist order: property
  293.  rights.  The facilitating feature of the boundary forming process between
  294.  the CU and the CSI is the sense of otherness and lack of affinity with
  295.  which they confront each other: the "them and us" scenario.
  296.  
  297. 6.2.1 The evidence - hawkish strength of feeling
  298.  
  299.  Direct access to the debate between the CSI and CU can be obtained by
  300.  looking at examples of e-mail correspondence known as 'flames'.  These are
  301.  strongly worded, and often insulting electronic mail messages.  They serve
  302.  to illustrate the antagonism that exists between the CSI and CU.  The
  303.  following are examples of the expressions used on e-mail to describe
  304.  hackers and hacking:
  305.  
  306. I am for making the penalties for computer trespass extremely painful to the
  307.  perpetrator ... Most administrators who've had to clean up and audit a
  308.  system of this size probably think that a felony rap is too light a
  309.  sentence.  At times like that, we tend to think in terms of boiling in oil,
  310.  being drawn and quartered, or maybe burying the intruder up to his neck in
  311.  an anthill (Bob Johnson: RISKS electronic digest, 11:32).
  312.  
  313. electronic vandalism (Warman: e-mail interview).
  314.  
  315. Somewhere near vermin i.e. possibly unavoidable, maybe even necessary pests
  316.  that can be destructive and disruptive if not monitored (Zmudsinki e-mail
  317.  interview).
  318.  
  319. Mostly they seem to be kids with a dramatically underdeveloped sense of
  320.  community and society
  321. (Bernie Cosell: e-mail interview).
  322.  
  323.  
  324.  
  325.  Opposition to hacking practices has become increasingly non-specific and
  326.  moralistic, an example being Spafford's argument that   using hackers'
  327.  knowledge on a regular basis within the computer security industry is
  328.  equivalent to employing a known arsonist as your fire-chief, a fraudster as
  329.  your accountant, or a paedophile as your child-minder.  The technical
  330.  insights that they could provide or could be derived as a by-product of
  331.  their activities become subordinate to the need to express opprobrium
  332.  against the morality of the actions themselves.  The language of blame and
  333.  morality is consistently used by hawkish members of the CSI to refer to
  334.  hackers in what they would argue is a process of 'blame displacement'.  The
  335.  CSI are accused of using moral condemnation as a means of deflecting any
  336.  responsibility and blame for security breaches  that might be attached, not
  337.  just to the perpetrators of intrusions, but also their victims.  As
  338.  Herschberg said:
  339.  
  340. The pseudo-moral arguments and the moralistic language certainly cloud the
  341.  issue in my view.  I think it obscures the fact that system owners or
  342.  system administrators have a moral duty to do at least their level best to
  343.  stop penetrations.  They are very remiss in their duty, they couldn't care
  344.  less and therefore at least, there is quite an understandable tendency to
  345.  blame the penetrator rather than blaming themselves for not having taken at
  346.  least adequate counter measures, in fact in some cases counter measures
  347.  have not been taken at all ... if it is proved to you that you haven't done
  348.  your homework, then you almost automatically go into a defensive attitude
  349.  which in this case, simply amounts to attacking the hacker, blaming him
  350.  morally, heaping opprobrium on his head ... yes, the fear factor is
  351.  involved (Herschberg: Delft interview).
  352.  
  353.  This undercurrent of moral censure was a recurrent quality of the
  354.  field-work interviews with members of the CSI, for example:
  355.  
  356.  
  357. I've been in this game ... this is my 36th year, in the interests of hacking
  358.  as a whole I think hacking is something which is derogatory; to be played
  359.  down, to possibly in fact, be treated as a minor form of criminal activity
  360.  ... the last thing you want to do is to make hackers into public figures;
  361.  give them publicity.  I think it needs to be played down when it occurs,
  362.  but it shouldn't occur ... I wouldn't have them, no, under any
  363.  circumstances (Taylor: Knutsford interview).
  364.  
  365.  Dr Taylor and others interviewees, involved in the provision of computer
  366.  security, had had surprisingly little direct contact with hackers.  I asked
  367.  him about this lack of direct contact/interplay and his perceptions of the
  368.  motivations of hackers:
  369.  
  370. Well, there shouldn't be [any interplay] because the industry doesn't want
  371.  to hear about hackers and certainly doesn't want to see the effects of what
  372.  they do ... To me I'm not concerned with what the hacker does, I'm more
  373.  concerned with keeping him out to start with ... You've talked to what are
  374.  called the more ethical members of the hacking community for whom it's an
  375.  intellectual challenge, but there are in fact people who are psychopaths,
  376.  and Doctor Popp3 is one of these, where they just want to level a score
  377.  with society which they feel has been unfair to them ... A chap called
  378.  Whitely has just gone to prison for four years for destroying medical data
  379.  at Queen Mary's hospital, London.  He just destroyed utterly and he wasn't
  380.  just a hacker that was browsing, he was a psychopath almost certainly
  381.  (Taylor: Knutsford interview).
  382.  
  383.  In contrast, and as an illustration of the negative perceptions each groups
  384.  has of the other, a hacker, Mofo, argues that psychotic tendencies are not
  385.  the sole preserve of the hacking community:
  386.  
  387. my experience has shown me that the actions of 'those in charge' of computer
  388.  systems and networks have similar 'power trips' which need be fulfilled.
  389.  Whether this psychotic need is developed or entrenched before one's
  390.  association with computers is irrelevant.  Individuals bearing such faulty
  391.  mental health are present in all walks of life.  I believe it is just a
  392.  matter of probability that many such individuals are somewhat associated
  393.  with the management of computers and networks [as well as intrusion into
  394.  computer systems] (Mofo: e-mail interview).
  395.  
  396.  Taylor is wary of the damage to computing that greater publicisation of
  397.  hacking could cause, yet as the above reference to Dr Popp and Nicholas
  398.  Whitley shows, ironically, he seemed to be dependent upon the most
  399.  publicised cases of hacking for his perceptions of hackers.  A further
  400.  argument that prevents the CSI accepting hackers as potentially useful
  401.  fault-finders in systems is the simple charge that without the existence of
  402.  hackers in the first place, there would be very little need for extensive
  403.  security measures.  Even if hackers are of some use in pointing out various
  404.  bugs in systems, such a benefit is outweighed by the fact that a large
  405.  amount of computing resources are 'wasted' on what would otherwise be
  406.  unnecessary security measures.  For example, Dr Taylor's view is that:
  407.  
  408. hacking is a menace that stops people doing constructive work ... A lot of
  409.  money get's spent today on providing quite complex solutions to keep ahead
  410.  of hackers, which in my view should not be spent ... They're challenging
  411.  the researchers to produce better technical solutions and they're
  412.  stimulating the software service industry which provides these solutions
  413.  and makes money out of it.  But you answer the question for me, what's that
  414.  doing for society? (Taylor: Knutsford interview).
  415.  
  416.  Thus one reason for the use of moral language is in order to displace blame
  417.  from those in charge of the systems where security is lax, to those who
  418.  have broken that lax security.  Irrespective of the state of security of
  419.  systems, there is a project of group formation whereby those who implement
  420.  computer security wish to isolate and differentiate themselves from the CU,
  421.  in a process that highlights the inherent differences that exist between
  422.  the two groups.  This project is vividly illustrated in the following
  423.  excerpt from the keynote Turing Award acceptance speech given by Ken
  424.  Thompson:
  425.  
  426. I have watched kids testifying before Congress.  It is clear that they are
  427.  completely unaware of the seriousness of their acts.  There is obviously a
  428.  cultural gap.  The act of breaking into a computer system has to have the
  429.  same social stigma as breaking into a neighbor's house.  It should not
  430.  matter that the neighbour's door is unlocked.  The press must learn that
  431.  misguided use of a computer is no more amazing than drunk driving of an
  432.  automobile (Thompson 1984: 763).
  433.  
  434.    This degree of sentiment was consistently expressed amongst some of the
  435.  most prominent and accomplished of those figures from the computer security
  436.  industry who were  generally opposed to hackers:
  437.  
  438. Unfortunately ... it is tempting to view the hacker as something of a folk
  439.  hero - a lone individual who, armed with only his own ingenuity, is able to
  440.  thwart the system.  Not enough attention is paid to the real damage that
  441.  such people can do...when somebody tampers with someone else's data or
  442.  programs, however clever the method, we all need to recognise that such an
  443.  act is at best irresponsible and very likely criminal.  That the offender
  444.  feels no remorse, or that the virus had unintended consequences does not
  445.  change the essential lawlessness of the act, which is in effect
  446.  breaking-and-entering.   And asserting that the act had a salutary outcome,
  447.  since it led to stronger safeguards, has no more validity than if the same
  448.  argument were advanced in defense of any crime.  If after experiencing a
  449.  burglary I purchase a burglar alarm for my house, does that excuse the
  450.  burglar?  Of course not.  Any such act should be vigorously prosecuted
  451.  (Parrish 1989).
  452.  
  453.  Several of the above quotations are notable for their heavy reliance upon
  454.  the visual imagery of metaphors comparing the ethical issues arising from
  455.  computing with real-world situations, a topic that will be looked at
  456.  shortly.
  457.  
  458. 6.3 REASONS FOR 'THEM AND US'
  459.  
  460. 6.3.1 Ethical differences between the CSI and CU
  461.  
  462.  Having identified the strength of feeling of hawkish views of hacking, this
  463.  section explores the ethical basis of that antagonism. The following
  464.  quotation from a member of the CSI illustrates the stark difference between
  465.  the ethical outlooks of certain members of the computing constituency.
  466.  Elements of the CSI vehemently oppose the "playpen attitude" advocated by
  467.  elements of the CU.  Presupposing that no harm is done, hackers tend to
  468.  believe that it is not wrong to explore systems without prior permission,
  469.  whilst those concerned with the security of those systems would
  470.  characterise such a belief as offensive:
  471.  
  472. Just because YOU have such a totally bankrupt sense of ethics and propriety,
  473.  that shouldn't put a burden on *me* to have to waste my time dealing with
  474.  it.  Life is short enough to not have it gratuitously wasted on
  475.  self-righteous, immature fools...If you want to 'play' on my system, you
  476.  can ASK me, try to convince me *a priori* of the innocence of your intent,
  477.  and if I say "no" you should just go away.  And playing without asking is,
  478.  and should be criminal; I have no obligation, nor any interest, in being
  479.  compelled to provide a playpen for bozos who are so jaded that they cannot
  480.  amuse themselves in some non-offensive way (Cosell CUD 3:12).
  481.  
  482.  When we examine the factors underpinning the CSI's and CU's contrasting
  483.  ethical interpretations we find an important feature is the tendency of the
  484.  CSI to denigrate, or devalue the ethics articulated by hackers.  Bob
  485.  Johnson, a Senior Systems analyst and Unix System Administrator at a US
  486.  military installation criticises the justifications used by hackers as an
  487.  example of the modern tendency to indulge in "positional ethics".
  488.  Referring to the Internet worm case he states:
  489.  
  490. The majority of people refuse to judge on the basis of "right and wrong".
  491.  Instead, they judge the actions in terms of result, or based on actual
  492.  damages, or incidental damages or their own personal ideas.  In my mind,
  493.  Morris was WRONG in what he did, regardless of damages, and should
  494.  therefore be prepared to pay for his deeds.  Many others do not suffer from
  495.  this "narrow frame of mind".  By the way, positional ethics is the same
  496.  line of reasoning which asks, "When would it be right to steal a loaf of
  497.  bread?"  I believe that the answer is "It may someday be necessary, but
  498.  it's never right" (Bob Johnson: e-mail interview).
  499.  
  500.  The "hawkish" elements of the CSI are unequivocal in their condemnation of
  501.  hacking and its lack of ethics.  They argue that the lack of ethics shown
  502.  by hackers is indicative of a wider societal decline.   Thus Smb
  503.  characterises the alleged degeneration of the average persons ethics, not
  504.  as a breakdown in morality, but rather as a spread of amorality: "I'm far
  505.  from convinced that the lack of ethics is unique to hackers.  I think it's
  506.  a societal problem, which in this business we see manifested as hacking.
  507.  Amorality rather than immorality is the problem" (Smb: E-mail interview).
  508.  Similarly, Bob Johnson argues that:
  509.  
  510. In a larger sense, I view them [hacking and viruses] as part of the same
  511.  problem, which is a degeneration of the average persons ethics - i.e.
  512.  integrity and honesty.  There's a popular saying in America - 'You're not
  513.  really breaking the speed limit unless you get caught.  I believe an
  514.  ethical person would neither break into systems, nor write viruses (Bob
  515.  Johnson: e-mail interview).
  516.  
  517.  Cosell takes this argument further, the "degeneration of the average
  518.  person's ethics" is applied to a loss of respect by hackers for property
  519.  rights:
  520.  
  521. The issue here is one of ethics, not damages.  I'll avoid the "today's
  522.  children are terrors" argument, but some parts of that cannot be avoided:
  523.  the hackers take the point of view that the world at large OWES them
  524.  amusement, and that anything they can manage to break into is fair game [an
  525.  astonishing step beyond an already reprehensible position, that anything
  526.  not completely nailed down is fair game] (Cosell: e-mail interview).
  527.  
  528.  A study into social and business ethical questions was carried out by
  529.  Johnston and Wood (1985, cited by Vinten 1990) for the British Social
  530.  Attitudes Survey.  Apart from their major conclusion that the single most
  531.  important factor influencing the strength of people's ethical judgements
  532.  was age, it seems difficult to point to clear ethical boundaries and
  533.  guide-lines in relation to many of the situations that arise in the modern
  534.  world, especially in the realms of business.  Thus in his summary of the
  535.  report Vinten describes how: "In situations ranging widely from
  536.  illegitimate tipping of dustmen to serious corruption, no clear-cut
  537.  boundaries emerged as between 'right' and 'wrong' ... Sub-group variation
  538.  was greatest where situations were complicated by motivation questions, and
  539.  by being remote from everyday experience" (Vinten 1990: 3).  Hacking
  540.  fulfils both of these criteria.
  541.  The advent of "virtual reality" or "cyberspace" tends to divorce computing
  542.  from "everyday experience".  This leads directly to an ambiguous ethical
  543.  status for many computing situations and a concomitant need to assert
  544.  ethical standards by the dominant social constituency if it is to succeed
  545.  in exerting control over computing.  Vinten's study of computer ethics
  546.  (1990) points out that ethical judgements tend to be harsher, the older the
  547.  person making the judgements.  Members of the CSI consistently have
  548.  strongly critical views of the ethical stance taken by hackers.  They tend
  549.  to be older than hackers, having been involved with computers, as a career,
  550.  for many years.  Hackers, in contrast, tend to use computers more as a
  551.  hobby and may hack in order to gain access to systems which their youth
  552.  precludes them from obtaining access to by legitimate means.  This age
  553.  difference is perhaps one reason why there are such fundamental differences
  554.  in the ethical outlook of members of the CSI and CU4.
  555.  
  556. 6.3.2 Fear of Anonymity
  557.  
  558.  One of the common themes that stems from the CSI's perception of hackers is
  559.  their tendency to assume the worst intent behind the actions of intruders,
  560.  a tendency encouraged by the fact that hacking is intrinsically anonymous:
  561.  
  562.  
  563. There is a great difference between trespassing on my property and breaking
  564.  into my computer.  A better analogy might be finding a trespasser in your
  565.  high-rise office building at 3 AM, and learning that his back-pack
  566.  contained some tools, some wire, a timer and a couple of detonation caps.
  567.  He could claim that he wasn't planting a bomb, but how can you be sure?
  568.  (Cosell: e-mail interview).
  569.  
  570.  Another vivid example of the doubt caused by the anonymity of hackers  is
  571.  the comparison below made by Mike Jones of the DTI's security awareness
  572.  division.  I pointed out that many hackers feel victimised by the
  573.  establishment because they believe it is more interested in prosecuting
  574.  them than patching up the holes they are pointing out with their activity.
  575.  Jones accepted that there was prejudice in the views of the CSI towards the
  576.  CU.  That prejudice, however, is based upon the potential damage that
  577.  hackers can cause.  Even if there is no malicious intention from the
  578.  hacker, suspicion and doubt as to what harm has been done exists:
  579.  
  580. Say you came out to your car and your bonnet was slightly up and you looked
  581.  under the bonnet and somebody was tampering with the leads or there looked
  582.  like there were marks on the brake-pipe.  Would you just put the bonnet
  583.  down and say "oh, they've probably done no harm" and drive off, or would
  584.  you suspect that they've done something wrong and they've sawn through a
  585.  brake-pipe or whatever... say a maintenance crew arrived at a hanger one
  586.  morning and found that somebody had broken in and there were screw-driver
  587.  marks on the outside casing of one of the engines, now would they look
  588.  inside and say "nothing really wrong here" or would they say, "hey, we've
  589.  got to take this engine apart or at least look at it so closely that we can
  590.  verify that whatever has been done hasn't harmed the engine"  (Jones:
  591.  London interview).
  592.  
  593.  These two quotations proffer an important explanation of the alleged
  594.  paranoid and knee-jerk reactions to hacking activity from the computing
  595.  establishment.  The general prejudice held by the CSI  towards the CU is
  596.  heightened by the anonymous quality of hacking.  The anonymity encourages
  597.  doubts and paranoia as a result of being unable to assess the motivation of
  598.  intruders and the likelihood that any harm that has been committed will be
  599.  difficult to uncover.
  600.  In addition to these points, the anonymity afforded by Computer Mediated
  601.  Communication (CMC) encourages hackers to project exaggeratedly threatening
  602.  personalities to the outside world and media.  Barlow (1990) describes
  603.  meeting some hackers who had previously frightened him with their
  604.  aggressive e-mail posturing.  When Barlow actually came face to face with
  605.  two of the hackers they:
  606.  
  607. were well scrubbed and fashionably clad.  They looked to be as dangerous as
  608.  ducks.  But ... as ... the media have discovered to their delight, the boys
  609.  had developed distinctly showier personae for their rambles through the
  610.  howling wilderness of Cyberspace.  Glittering with spikes of binary chrome,
  611.  they strode past the klieg lights and into the digital distance.  There
  612.  they would be outlaws.  It was only a matter of time before they started to
  613.  believe themselves as bad as they sounded.  And no time at all before
  614.  everyone else did (Barlow 1990: 48).
  615.  
  616.  The anonymity afforded by CMC thus allows hacking culture to indulge in
  617.  extravagant role-playing which enhances the perception of it in the eyes of
  618.  outsiders as being a potentially dangerous underground movement.  Hacking
  619.  groups generally choose colourful names such as "Bad Ass Mother Fuckers,
  620.  Chaos Computer Club, Circle of Death, Farmers of Doom"5, and so on.
  621.  
  622. 6.4 THE ETHICAL BASIS OF THE 'THEM AND US' SCENARIO
  623.  
  624. 6.4.1 Blurred and vestigial ethics
  625.  
  626. Cracking, virus writing, and all the rest, fall into the realm of
  627.  possibility when dealing with intelligent, curious minds.  The ethics of
  628.  such things come later.  Until then, users of computers remain in this
  629.  infancy of cracking, etc. (Kerchen: e-mail interview).
  630.  
  631.  The ethical edges demarcating legal and illicit acts have a higher tendency
  632.  to be blurred whenever technology has a significant presence in the context
  633.  of the act.  The acts of such figures as Captain Crunch have been received
  634.  with a combination of admiration and condemnation.  Opposition to attempts
  635.  to commodify and institutionalise informational property relations can
  636.  exist in such rebellious manipulations of technology; but also more
  637.  'respectably' in the intellectual and political platforms of such figures
  638.  as Richard Stallman and the League for Programming Freedom.  Activities
  639.  involving the use of computers have given rise to a number of qualitatively
  640.  new situations in which there is a debate as to whether the act in question
  641.  is ethical or not.  These activities tend to centre upon such questions as
  642.  whether the unauthorised access to and/or use of somebody's computer,
  643.  system, or data can be adequately compared to more traditional crimes
  644.  involving the physical access or manipulation of material objects or
  645.  property.
  646.  An example of such ambiguity is the fact that whereas the idiosyncratic
  647.  behaviour of the early hackers of MIT was benignly tolerated now hacking is
  648.  portrayed in the press as having evil associations and is subject to legal
  649.  prosecution.  This apparent change in social values has occurred despite
  650.  the fact that the motivations and lack of regard for property rights
  651.  associated with hacking have remained constant over time.  Examples of the
  652.  previously ad hoc morality with respect to computers abound.  The first
  653.  generation MIT hackers engaged in such illicit activity as using equipment
  654.  without authorisation (Levy 1984: 20), phone phreaking (pg 92),
  655.  unauthorised modification of equipment (pg 96) and the circumvention of
  656.  password controls (Pg 417)6.  Bloombecker gives the example of how
  657.  authority's reaction to the behaviour of small school children may
  658.  represent society's ambivalent response to the computing activities it
  659.  originally encourages.  Definitive ethical judgements can prove difficult
  660.  to make in certain situations:
  661.  
  662. Think of the dilemma expressed unknowingly by the mathematics teacher who
  663.  spoke of the enthusiasm her 9 and 10-year-old students exhibited when she
  664.  allowed them to use the school's computers.  "They are so excited" she
  665.  said, "that they fight to get onto the system.  Some of them even erase
  666.  others' names from the sign-up lists altogether".  The idea that this was
  667.  not good preparation for the students' moral lives seemed never to have
  668.  occurred to her ... Unfortunately, both for society and for those that need
  669.  the guidance, there is no standard within the computer community to define
  670.  precisely when the playing has got out of hand.  If a student uses an hour
  671.  of computer time without permission, one university computer department may
  672.  consider it criminal theft of service, while another views it as an
  673.  exercise of commendable ingenuity (Bloombecker 1990: 42).
  674.  
  675.  This ambiguous ethical status of some computing activities is due to the
  676.  relatively recent advent of computing as an area of human endeavour; this
  677.  has led to a lack of readily agreed-upon computing mores: "Indeed, if we
  678.  were to devise a personality test designed to spot the computer criminal,
  679.  the first and most difficult task would be to create a task that did not
  680.  also eliminate most of the best minds who have made computing what it is"
  681.  (Bloombecker 1990: 39).  There is the further complicating factor, that to
  682.  some extent at least, society encourages "getting hooked" upon computing,
  683.  since it is perceived as representing a beneficial outlet for intellectual
  684.  endeavour.  We now turn to more specific examples of computing's ethical
  685.  complexity.
  686.  
  687. 6.4.2  Industry examples of blurred ethics
  688.  
  689.  There is often a lack of agreement even amongst computer professionals as
  690.  to what constitutes the correct procedures with which to confront certain
  691.  research and educational issues within computing.  A specific example of
  692.  this lack of agreement is the debate caused by the publication of an
  693.  article by Cohen, entitled "Friendly contagion:  Harnessing the Subtle
  694.  Power of Computer Viruses" (1991).  In the article, Cohen suggests that the
  695.  vendor of a computer virus prevention product should sponsor a contest
  696.  encouraging the development of new viruses, with the provisos that the
  697.  spreading ability of the viruses should be inherently limited, and that
  698.  they should only be tested on systems with the informed consent of the
  699.  systems owners.  Spafford responded with the charge that: "For someone of
  700.  Dr Cohen's reputation within the field to actually promote  the
  701.  uncontrolled writing of any virus, even with his stated stipulations, is to
  702.  act irresponsibly and immorally.  To act in such a manner is likely to
  703.  encourage the development of yet more viruses "in the wild" by muddling the
  704.  ethics and dangers involved" (Spafford 1991: 3).  Furthermore, even the
  705.  publication of "fixes" can be viewed in certain instances as an unethical
  706.  act, leading to what has been previously described as the phenomenon of
  707.  "security through obscurity".  Spafford argues that: "We should realize
  708.  that widespread publication of details will imperil sites were users are
  709.  unwilling or unable to install updates and fixes.  Publication should serve
  710.  a useful purpose; endangering the security of other people's machines or
  711.  attempting to force them into making changes they are unable to make or
  712.  afford is not ethical" (Spafford 1990:12).
  713.  The disagreement over some of the ethical questions thrown up by hacking
  714.  was also in evidence in the aftermath of the Internet Worm when a debate
  715.  raged amongst computer professionals as to the ethical and technical
  716.  implications of the event.  The debate tending to support the above
  717.  argument positing ethical sub-group variation and a general lack of
  718.  clear-cut moral boundaries as typical of the modern ethical environment,
  719.  especially when there are contrasting opinions as to the originating
  720.  motivations behind specific acts.  Such a debate was reflected in the
  721.  "Communications of the  Association of Computing Machinery (ACM)" Forum of
  722.  Letters, where even the ACM's president received quite strident criticism
  723.  for his position indicated in the title of his letter: "A Hygiene Lesson",
  724.  that the Internet Worm could be viewed as beneficial in so far as it
  725.  increased awareness of security practices.  The president's view was
  726.  described by one contributor to the forum as, "a massive error in judgement
  727.  which sends the wrong message to the world on the matters of individual
  728.  responsibility and ethical behaviour ... [it] is inexcusable and an
  729.  exercise in moral relativism" (Denning, Peter 1990: 523).  Similarly,
  730.  another writer illustrates the disparate nature of the feelings produced by
  731.  the Internet Worm incident when he pointedly remarks:
  732.  
  733. while Spafford praises the efficacy of the ''UNIX 'old boy' network" in
  734.  fighting the worm, he does not explain how these self-appointed fire
  735.  marshals allowed such known hazards to exist for so long ... If people like
  736.  Morris and people like him are the greatest threat to the proper working of
  737.  the Internet then we face no threat at all.  If, on the other hand, our
  738.  preoccupation with moralizing over this incident blinds us to serious
  739.  security threats and lowers the standards of civility in our community,
  740.  then we will have lost a great deal indeed  (Denning, Peter 1990: pp 526
  741.  +7).
  742.  
  743. 6.4.3 Technology and ethics
  744.  
  745.  Underlying some of these problems with ethics has been the tendency
  746.  identified by Spafford (1990) to "view computers simply as machines and
  747.  algorithims, and ... not perceive the serious ethical questions inherent in
  748.  their use" (Spafford 1990: 12).  Spafford points to the failure to address
  749.  the end result of computing decisions upon people's lives, and hence the
  750.  accompanying failure to recognise the ethical component of computing.  As a
  751.  result, he argues, there is a subsequent general failure to teach the
  752.  proper ethical use of computers:
  753.  
  754. Computing has historically been divorced from social values, from human
  755.  values, computing has been viewed as something numeric and that there is no
  756.  ethical concern with numbers, that we simply calculate values of 0 and 1,
  757.  and that there are no grey areas, no impact areas, and that leads to more
  758.  problems than simply theft of information, it also leads to problems of
  759.  producing software that is also responsible for loss and damage and hurt
  760.  because we fail to understand that computers are tools whose products ...
  761.  involve human beings and that humans are affected at the other end
  762.  (Spafford US interview).
  763.  
  764.  This is due to the fact that often the staff of computer faculties are
  765.  uncomfortable with the subject, or don't believe it's important.  Their
  766.  backgrounds are predominantly in mathematics or scientific theory and hence
  767.  they don't adequately understand how practical issues of use may apply to
  768.  computing.  Spafford suggests that engineering provides a more appropriate
  769.  model of computing than science in so far as it addresses the human as well
  770.  as the scientific dimensions.
  771.  
  772. Computer science is really, in large part an engineering discipline and that
  773.  some of the difficulties that arise in defining the field are because the
  774.  people who are involved in computing, believe it's a science and don't
  775.  understand the engineering aspects of it.  Engineers, for a very long time,
  776.  have been taught issues of appropriateness and ethics and legality and it's
  777.  very often a required part of engineering curricula ... computing is more
  778.  than just dealing with numbers and abstractions, it does in fact have very
  779.  strong applications behind it, a very strong real-world component (Spafford
  780.  US interview).
  781.  
  782.  The extent to which computing has a non-material dimension, however,
  783.  constantly mitigates against Spafford's desire for computing to be
  784.  ethically approached in a similar manner to an engineering discipline.
  785.  There is a fundamental difference between the 'real world' and the 'virtual
  786.  world' of computing, and it is this difference which makes the literal
  787.  transposing of ethical judgements from the former to the latter, difficult,
  788.  if not untenable.  The correct balance with which to transpose ethical
  789.  judgements from one realm to another is debateable.
  790.  
  791. 6.5 BOUNDARY FORMATION - ROLE OF THE MEDIA
  792.  
  793.  This section debunks some of the sensationalising, demonising, and
  794.  mythologising of hacking that has occurred with the recent spate of books,
  795.  articles and television programmes dealing with the issue.  It also
  796.  corrects the overwhelming tendency of most of the writings on the subject
  797.  of hacking to concentrate on the minutiae of the activities and life
  798.  histories of hackers or their adversaries.  Frequently, but superficially,
  799.  deep-rooted psychological abnormalities are offered as explanations for
  800.  hacking activity, whilst ignoring the ethical and political implications of
  801.  those acts.  The overall effect of the media portrayal of hacking, it could
  802.  be suggested, is a continuation by other means of the CSI's project of
  803.  stigmatisation and closure.
  804.  
  805. (i) 'Hacker best-sellers'
  806.  
  807.  Two examples of the tendency towards sensationalism are The Cuckoo's Egg by
  808.  Clifford Stoll and Cyberpunk by Hafner and Markoff. An example of the many
  809.  uses of hyperbole in their choice and tone of language is their
  810.  consideration of the issues at stake in the hiring of a hacker for security
  811.  work.  "But hire such a mean-spirited person?  That would be like giving
  812.  the Boston Strangler a maintenance job in a nursing-school dormitory"
  813.  (Hafner and Markoff, 1991: 40).  Both of these books made a large impact on
  814.  the computing public and yet both seem self-indulgent in their reliance
  815.  upon trivial and tangential details in the narration of different hacking
  816.  episodes.  In The Cuckoo's Egg, for example, we are given various
  817.  descriptions of the author's girlfriend and seemingly irrelevant details of
  818.  their shared Californian lifestyle.  In Cyberpunk, many unsubstantiated
  819.  conjectures are made as to the state of mind of the hacker.  Thus the
  820.  authors write about Kevin Mitnick:
  821.  
  822. When Kevin was three, his parents separated. His mother, Shelly got a job as
  823.  a waitress at a local delicatessen and embarked upon a series of new
  824.  relationships.  Every time Kevin started to get close to a new father, the
  825.  man disappeared. Kevin's real father was seldom in touch; he remarried and
  826.  had another son, athletic and good-looking.  During Kevin's high school
  827.  years, just as he was getting settled into a new school, the family moved.
  828.  It wasn't surprising that Kevin looked to the telephone for solace (Haffner
  829.  and Markoff 1991: 26).
  830.  
  831.  This somewhat arbitrary assignation of motivation leads the authors to
  832.  label Kevin Mitnick as the "dark-side" hacker,  whereas their analysis of
  833.  Robert Morris, author of the Internet Worm, is much less condemning despite
  834.  the fact the latter was responsible for much more damage and man-hours of
  835.  data-recovery time.
  836.  
  837. (ii)  Press and Television
  838.  
  839.  The media faces, in its reporting of computer security issues, the
  840.  perennial problem of how to report technical issues in a both accurate and
  841.  entertaining manner.  Generally, the media has tended towards reporting
  842.  those stories that contain the highest degree of 'electronic lethality' and
  843.  it has exaggerated the 'darkness' of hacking motives.  For example, a
  844.  Channel Four television documentary "Dispatches" entitled its investigation
  845.  of hacking "The day of the Technopath", whilst the February 1991 edition of
  846.  GQ magazine concerned the growth of virus writers in Bulgaria and was
  847.  called "Satanic Viruses".
  848.  Along with the above two treatments of the computer security issue I will
  849.  also look at a Sunday Correspondent article of the 17th December 1989
  850.  entitled "A Bug in the Machine"  and part of the transcript of an episode
  851.  of the U.S. current affairs/chat-show programme, "Geraldo", for a sample of
  852.  media treatments of the hacking issue.  The television portrayals of the
  853.  problem of computer security seem to be the most superficial and dependent
  854.  upon sensationalising techniques.  Newspaper and magazine articles to give
  855.  relatively thorough and accurate technical descriptions of what it is to
  856.  hack/write viruses but still make disproportionate use of 'dark-side'
  857.  imagery7.
  858.  
  859. "A Bug in the Machine"
  860.  
  861.  This article is an example of the tendency of the press to concentrate upon
  862.  the "sexy" elements of computer security stories. It contains a cynical
  863.  description of Emma Nicholson M.P.'s unsubstantiated claims that hacking
  864.  techniques are used for terrorist purposes by the European Green movement
  865.  amongst others and her emotive description of hackers as: " ... malevolent,
  866.  nasty evil-doers who fill the screens of amateur users with pornography"
  867.  (Matthews 1989: 39).  Yet whilst dispelling some of the alarmist tendencies
  868.  of such claims, the example of a hacker chosen by the journalists is that
  869.  of the "computer anarchist Mack Plug".  Apart from making their own
  870.  unsubstantiated claim that "Nearly all hackers are loners" (a contention
  871.  refuted by my interviews with groups of Dutch hackers), their description
  872.  of his hacking activity seems to deliberately over-emphasise the more
  873.  "glamorous" type of hacking at the expense of describing the more mundane
  874.  realities and implications of everyday hacking:
  875.  
  876. At the moment he is hacking electronic leg tags. "I've got it down to 27
  877.  seconds" he says, "All you have to do is put a microset recorder next to
  878.  the tag and when the police call to check you're there, you tape the tones
  879.  transmitted by the tag and feed them on to your answering machine.  When
  880.  the cops call back again, my machine will play back those tones.  I'll have
  881.  a fail-safe alibi and I can get back to hacking into MI5 (Matthews 1989:
  882.  39).
  883.  
  884.  
  885. Geraldo Programme8
  886.  
  887.  On September 30th 1991, the Geraldo chat-show focused on hacking.  It
  888.  involved a presentation of various hacking cameo shots, one of which showed
  889.  Dutch hackers accessing US Department of Defense computers with super-user
  890.  status.  The studio section of the show involved an interview with Craig
  891.  Neidorf (alias Knight Lightning), who underwent a court case in the U.S.
  892.  for having allegedly received the source code of the emergency services
  893.  telephone computer programs.  Also interviewed was Don Ingraham the
  894.  prosecuting attorney in Neidorf's case.
  895.  Below I include excerpts from the dialogue that ensued as an example of the
  896.  extent to which hacking is presented in the media in a superficial,
  897.  trivialised and hyperbolic manner.  In the introductory part of the show,
  898.  excerpts from the film "Die Hard II" are shown in which terrorists take
  899.  over the computers of an airport.  The general tone of the show was
  900.  sensationalistic with one of the guest hackers Craig Neidorf being
  901.  repeatedly called the "Mad Hacker" by Geraldo and Don Ingraham consistently
  902.  choosing emotive and alarmist language as shown in the following examples:
  903.  
  904. Geraldo: Don, how do you respond to the feeling common among so many hackers
  905.  that what they're doing is a public service; they're exposing the flaws in
  906.  our security systems?
  907.  
  908. Don:  Right, and just like the people who rape a co-ed on campus are
  909.  exposing the flaws  in our nation's higher education security.  It's
  910.  absolute nonsense.  They are doing nothing more than showing off to each
  911.  other, and satisfying their own appetite to know something that is not
  912.  theirs to know.
  913.  
  914. And on the question of th
  915. give, in 30 seconds, a worst case scenario of what could result from the
  916.  activities of hackers.  To which he replies: "They wipe out our
  917.  communications system.  Rather easily done.  Nobody talks to anyone else,
  918.  nothing moves, patients don't get their medicine. We're on our knees."
  919.  
  920. Dispatches - "the day of the technopath"9
  921.  
  922.  Emma Nicholson M.P. interviewed in the Dispatches programme, states, "A
  923.  really good hacker could beat the Lockerbie bomber any day, hands down"
  924.  and, "Perhaps only a small fraction of the population dislikes the human
  925.  race, but they do, and some of them are highly computer-skilled".
  926.  The following is another example taken from the programme's voiced-over
  927.  commentary:
  928.  
  929. Until now the computer hacker has been seen affectionately as a skilled
  930.  technocrat, beavering away obsessively in his den, a harmless crank
  931.  exploring the international computer networks for fun.  But today it's
  932.  clear that any computer, anywhere, can be broken into and interfered with
  933.  for ulterior motives.  The technocrat has mutated to the technopath ...
  934.  government and business are reluctant to admit that they're fragile and
  935.  vulnerable to such threats, frightened of either the loss of public
  936.  confidence or of setting themselves up as targets for the technopaths who
  937.  stalk their electronic alleyways.
  938.  
  939. (End of Part one of Chapter 6; Part II follows)
  940.  
  941. ------------------------------
  942.  
  943. End of Part 1 (of 2) Computer Underground Digest #9.59
  944. ************************************
  945.  
  946.  
  947.