home *** CD-ROM | disk | FTP | other *** search
/ The Hacker's Encyclopedia 1998 / hackers_encyclopedia.iso / zines / cud / cud543.txt < prev    next >
Encoding:
Text File  |  2003-06-11  |  58.8 KB  |  1,046 lines

  1. Newsgroups: comp.society.cu-digest
  2. Path: vanbc.wimsey.com!deep.rsoft.bc.ca!agate!usenet.ins.cwru.edu!gatech!swrinde!cs.utexas.edu!chinacat!chinacat!not-for-mail
  3. From: Cu-Digest <tk0jut2@mvs.cso.niu.edu>
  4. Subject: Cu Digest, #5.43 [repost]
  5. Reply-To: tk0jut2@mvs.cso.niu.edu
  6. Organization: the Computer Underground Digest gateway
  7. Date: Thu, 24 Jun 1993 23:32:32 GMT
  8. Approved: usenet@chinacat.unicom.com (mail-to-news gateway)
  9. Message-ID: <1993Jun24.233232.3500@chinacat.unicom.com>
  10. Sender: usenet@chinacat.unicom.com (mail-to-news gateway)
  11. Lines: 1033
  12.  
  13. [Note:  I have been told that issues 42 and 43 might have been lost during
  14. the recent gateway outage.  This is a repost of issue 43.  -chip]
  15.  
  16. Computer underground Digest    Wed June 13 1993   Volume 5 : Issue 43
  17.                            ISSN  1004-043X
  18.  
  19.        Editors: Jim Thomas and Gordon Meyer (TK0JUT2@NIU.BITNET)
  20.        Archivist: Brendan Kehoe
  21.        Shadow-Archivists: Dan Carosone / Paul Southworth
  22.                           Ralph Sims / Jyrki Kuoppala
  23.                           Ian Dickinson
  24.        Copy Editor: Etaoin Shrdlu, Seniur
  25.  
  26. CONTENTS, #5.43 (June 13 1993)
  27. File 1--Hacker testimony to House subcommittee largely unheard
  28. File 2--CPSR Clipper Testimony (6-9-93) in House Subcommittee
  29.  
  30. Cu-Digest is a weekly electronic journal/newsletter. Subscriptions are
  31. available at no cost electronically from tk0jut2@mvs.cso.niu.edu. The
  32. editors may be contacted by voice (815-753-6430), fax (815-753-6302)
  33. or U.S. mail at:  Jim Thomas, Department of Sociology, NIU, DeKalb, IL
  34. 60115.
  35.  
  36. Issues of CuD can also be found in the Usenet comp.society.cu-digest
  37. news group; on CompuServe in DL0 and DL4 of the IBMBBS SIG, DL1 of
  38. LAWSIG, and DL0 and DL12 of TELECOM; on GEnie in the PF*NPC RT
  39. libraries and in the VIRUS/SECURITY library; from America Online in
  40. the PC Telecom forum under "computing newsletters;"
  41. On Delphi in the General Discussion database of the Internet SIG;
  42. on the PC-EXEC BBS at (414) 789-4210; and on: Rune Stone BBS (IIRG
  43. WHQ) 203-832-8441 NUP:Conspiracy
  44. CuD is also available via Fidonet File Request from 1:11/70; unlisted
  45. nodes and points welcome.
  46. EUROPE:   from the ComNet in LUXEMBOURG BBS (++352) 466893;
  47.           In ITALY: Bits against the Empire BBS: +39-461-980493
  48.  
  49. ANONYMOUS FTP SITES:
  50.   UNITED STATES:  ftp.eff.org (192.88.144.4) in /pub/cud
  51.                   uglymouse.css.itd.umich.edu (141.211.182.53) in /pub/CuD/cud
  52.                   halcyon.com( 202.135.191.2) in /pub/mirror/cud
  53.   AUSTRALIA:      ftp.ee.mu.oz.au (128.250.77.2) in /pub/text/CuD.
  54.   EUROPE:         nic.funet.fi in pub/doc/cud. (Finland)
  55.                   ftp.warwick.ac.uk in pub/cud (United Kingdom)
  56.  
  57. COMPUTER UNDERGROUND DIGEST is an open forum dedicated to sharing
  58. information among computerists and to the presentation and debate of
  59. diverse views.  CuD material may  be reprinted for non-profit as long
  60. as the source is cited. Authors hold a presumptive copyright, and
  61. they should be contacted for reprint permission.  It is assumed that
  62. non-personal mail to the moderators may be reprinted unless otherwise
  63. specified.  Readers are encouraged to submit reasoned articles
  64. relating to computer culture and communication.  Articles are
  65. preferred to short responses.  Please avoid quoting previous posts
  66. unless absolutely necessary.
  67.  
  68. DISCLAIMER: The views represented herein do not necessarily represent
  69.             the views of the moderators. Digest contributors assume all
  70.             responsibility for ensuring that articles submitted do not
  71.             violate copyright protections.
  72.  
  73. ----------------------------------------------------------------------
  74.  
  75. Date:   Thu, 10 Jun 1993 16:53:48 -0700
  76. From: Emmanuel Goldstein <emmanuel@WELL.SF.CA.US>
  77. Subject: File 1--Hacker testimony to House subcommittee largely unheard
  78.  
  79. What follows is a copy of my written testimony before the House
  80. Subcommittee on Telecommunications and Finance. The June 9th hearing
  81. was supposed to have been on the topic of network security, toll
  82. fraud, and the social implications of the rapidly emerging
  83. technologies. I was asked to speak for those who had no voice, which
  84. translates to hackers and consumers. Instead I found myself barraged
  85. with accusations from the two representatives in attendance (Rep. Ed
  86. Markey D-MA and Rep. Jack Fields R-TX) who considered 2600 Magazine
  87. (of which I'm the editor) nothing more than a manual for computer
  88. crime. One article in particular that Markey latched upon was one in
  89. our Spring issue that explained how a cable descrambler worked.
  90. According to Markey, there was no use for this information outside of
  91. a criminal context. Fields claimed we were printing cellular "codes"
  92. that allowed people to listen in on cellular calls. In actuality, we
  93. printed frequencies. The difference didn't seem to matter - after
  94. explaining it to him, he still said he was very disturbed by the fact
  95. that I was allowed to keep publishing. It soon became apparent to me
  96. that neither one had read my testimony as there seemed to be no
  97. inclination to discuss any of the issues I had brought up. In a way,
  98. it was very much like being on the Geraldo show. Somehow I thought
  99. elected representatives would be less sensationalist and more
  100. interested in learning but this was not the case here. We got
  101. absolutely nowhere. Markey in particular was rude, patronizing, and
  102. not at all interested in entertaining any thought outside his narrow
  103. perception. It's too bad this opportunity was lost. There is a real
  104. danger in elected officials who don't listen to all relevant opinions
  105. and who persist in sticking to old-fashioned, outdated notions that
  106. just don't apply to high technology. You can look forward to more
  107. restrictive regulations and higher penalties for violating them if
  108. this mentality continues to dominate.
  109.  
  110. +++++++++++++++++++
  111. WRITTEN TESTIMONY FOLLOWS:
  112.  
  113.      Mr. Chairman, members of the Committee, thank you for the
  114. opportunity to speak on the issue of the rapid growth and changes in
  115. the telecommunications industry.
  116.  
  117.      My name is Emmanuel Goldstein and I am the publisher of 2600
  118. Magazine, which is a journal for computer hackers as well as anyone
  119. else who happens to be interested in the direction that technology is
  120. taking us. We tend to be brutally honest in our assessments and, as a
  121. result, we do get some corporations quite angry at us. But we've also
  122. managed to educate a large number of people as to how their telephone
  123. system works, what kinds of computers may be watching them, and how
  124. they can shape technology to meet their needs, rather than be forced
  125. to tailor their existence to meet technology's needs.
  126.  
  127.      I am also the host of a weekly radio program called Off The Hook
  128. which airs over WBAI in New York. Through that forum we have
  129. discovered the eagerness and curiosity that many "ordinary people on
  130. the street" possess for technology. At the same time we have seen
  131. fears and suspicions expressed that would be unwise to ignore.
  132.  
  133. HOW TO HANDLE RAPIDLY CHANGING TECHNOLOGY
  134.  
  135.      The next few years will almost certainly go down in history as
  136. those in which the most change took place in the least amount of time.
  137. The computer and telecommunications revolution that we are now in the
  138. midst of is moving full speed ahead into unknown territory. The
  139. potential for amazing advances in individual thought and creativity is
  140. very real. But so is the potential for oppression and mistrust the
  141. likes of which we have never before seen. One way or the other, we
  142. will be making history.
  143.  
  144.      I think we can imagine it best if we think of ourselves speeding
  145. down a potentially dangerous highway. Perhaps the road will become
  146. slick with ice or fraught with sharp curves. It's a road that nobody
  147. has gone down before. And the question we have to ask ourselves is
  148. what kind of a vehicle would we prefer to be in if things should start
  149. getting out of control: our own automobile where we would have at
  150. least some chance of controlling the vehicle and bringing it down to a
  151. safe speed or a bus where we, along with many others, must put all of
  152. our trust behind a total stranger to prevent a disaster. The answer is
  153. obviously different depending on the circumstances. There are those of
  154. us who do not want the responsibility of driving and others who have
  155. proven themselves unworthy of it. What's important is that we all have
  156. the opportunity at some point to choose which way we want to go.
  157.  
  158.      Rapidly changing technology can also be very dangerous if we
  159. don't look where we're going or if too many of us close our eyes and
  160. let someone else do the driving. This is a ride we all must stay awake
  161. for.
  162.  
  163.      I am not saying we should be overly suspicious of every form of
  164. technology. I believe we are on the verge of something very positive.
  165. But the members of this committee should be aware of the dangers of an
  166. uninformed populace. These dangers will manifest themselves in the
  167. form of suspicion towards authority, overall fear of technology, and
  168. an unhealthy feeling of helplessness.
  169.  
  170. HOW NEW TECHNOLOGY CAN HURT US
  171.  
  172.      The recent FBI proposal to have wiretap capabilities built into
  173. digital telephone systems got most of its publicity because American
  174. taxpayers were expected to foot the bill. But to many of the
  175. non-technical people I talked to, it was just another example of Big
  176. Brother edging one step closer. It is commonly believed that the
  177. National Security Agency monitors all traffic on the Internet, not to
  178. mention all international telephone calls.  Between Caller ID, TRW
  179. credit reports, video cameras, room monitors, and computer
  180. categorizations of our personalities, the average American feels as if
  181. life no longer has many private moments. Our Social Security numbers,
  182. which once were for Social Security, are now used for everything from
  183. video rentals to driver's licenses. These numbers can easily be used
  184. to track a person's location, expenses, and habits - all without any
  185. consent. If you know a person's name, you can get their telephone
  186. number. If you have their phone number, you can get their address.
  187. Getting their Social Security number is not even a challenge anymore.
  188. With this information, you can not only get every bit of information
  189. about this person that exists on any computer from Blockbuster Video
  190. to the local library to the phone company to the FBI, but you can
  191. begin to do things in this poor person's name. It's possible we may
  192. want a society like this, where we will be accountable for our every
  193. movement and where only criminals will pursue privacy. The American
  194. public needs to be asked. But first, they need to understand.
  195.  
  196.      In Germany, there is a fairly new computerized system of identity
  197. cards. Every citizen must carry one of these cards. The information
  198. includes their name, address, date of birth, and nationality - in
  199. other words, the country they were originally born in. Such a system
  200. of national identity can be quite useful, but in the wrong hands it
  201. can be extremely scary. For example, if a neo-Nazi group were to
  202. somehow get their hands on the database, they could instantly find out
  203. where everyone of Turkish nationality lived. A malevolent government
  204. could do the same and, since not carrying the card would be a crime,
  205. it would be very hard to avoid its wrath.
  206.  
  207.      Before introducing a new technology that is all-encompassing, all
  208. of its potential side-effects and disadvantages should be discussed
  209. and addressed. Opportunities must exist for everyone to ask questions.
  210. In our own country, nobody was ever asked if they wanted a credit file
  211. opened on them, if they wanted to have their phone numbers given to
  212. the people and companies they called through the use of Caller ID and
  213. ANI, or if they wanted to be categorized in any manner on numerous
  214. lists and databases. Yet all of this has now become standard practice.
  215.  
  216.      This implementation of new rules has resulted in a degree of
  217. cynicism in many of us, as well as a sense of foreboding and dread. We
  218. all know that these new inventions will be abused and used to
  219. somebody's advantage at some point. There are those who would have us
  220. believe that the only people capable of such misdeeds are computer
  221. hackers and their ilk. But it just isn't that simple.
  222.  
  223. UNDERSTANDING COMPUTER HACKERS
  224.  
  225.      To understand computer hackers, it helps to think of an alien
  226. culture. We have such cultures constantly around us - those with
  227. teenage children ought to know what this means. There are alien
  228. cultures of unlimited varieties throughout the globe, sometimes in the
  229. most unexpected places. I'm convinced that this is a good thing.
  230. Unfortunately, all too often our default setting on whatever it is we
  231. don't understand is "bad". Suspicion and hostility follow and are soon
  232. met with similar feelings from the other side. This has been going on
  233. between and within our cultures for as long as we've existed. While we
  234. can't stop it entirely, we can learn to recognize the danger signs.
  235. The best way that I've found to deal with an alien culture, whether
  236. it's in a foreign country or right here at home, is to try and
  237. appreciate it while giving it a little leeway. There is not a single
  238. alien culture I've encountered that has not been decidedly friendly.
  239. That includes deadheads, skateboarders, Rastafarians, and hackers.
  240.  
  241.      When we talk about computer hackers, different images spring to
  242. mind. Most of these images have come about because of perceptions
  243. voiced by the media. Too often, as I'm sure the members of this
  244. committee already suspect, the media just doesn't get it. This is not
  245. necessarily due to malice on their part but rather a general lack of
  246. understanding and an overwhelming pressure to produce a good story.
  247. Hence we get an abundance of sensationalism and, when the dust clears,
  248. hackers are being compared with bank robbers, mobsters, terrorists,
  249. and the like.  It's gotten to the point that the word hacker is almost
  250. analogous to the word criminal.
  251.  
  252.      Fortunately, the media is learning. Reporters now approach
  253. hackers with a degree of technological savvy. For the most part, they
  254. have stopped asking us to commit crimes so they can write a story
  255. about it. As the technology envelops us, journalists are developing
  256. the same appreciation and curiosity for it that hackers have always
  257. had. Any good reporter is at least part hacker because what a hacker
  258. does primarily is relentlessly pursue an answer. Computers naturally
  259. lend themselves to this sort of pursuit, since they tend to be very
  260. patient when asked a lot of questions.
  261.  
  262. WHAT CONSTITUTES A HI-TECH CRIME?
  263.  
  264.      So where is the boundary between the hacker world and the
  265. criminal world? To me, it has always been in the same place. We know
  266. that it's wrong to steal tangible objects. We know that it's wrong to
  267. vandalize. We know that it's wrong to invade somebody's privacy. Not
  268. one of these elements is part of the hacker world.
  269.  
  270.      A hacker can certainly turn into a criminal and take advantage of
  271. the weaknesses in our telephone and computer systems. But this is
  272. rare. What is more likely is that a hacker will share knowledge with
  273. people, one of whom will decide to use that knowledge for criminal
  274. purposes. This does not make the hacker a criminal for figuring it
  275. out. And it certainly doesn't make the criminal into a hacker.
  276.  
  277.      It is easy to see this when we are talking about crimes that we
  278. understand as crimes. But then there are the more nebulous crimes; the
  279. ones where we have to ask ourselves: "Is this really a crime?" Copying
  280. software is one example. We all know that copying a computer program
  281. and then selling it is a crime. It's stealing, plain and simple. But
  282. copying a program from a friend to try it out on your home computer --
  283. is this the same kind of crime? It seems obvious to me that it is not,
  284. the reason being that you must make a leap of logic to turn such an
  285. action into a crime. Imagine if we were to charge a licensing fee
  286. every time somebody browsed through a magazine at the local bookshop,
  287. every time material was borrowed from a library, or every time a phone
  288. number was jotted down from the yellow pages. Yet, organizations like
  289. the Software Publishers Association have gone on record as saying that
  290. it is illegal to use the same computer program on more than one
  291. computer in your house. They claim that you must purchase it again or
  292. face the threat of federal marshalls kicking in your door. That is a
  293. leap of logic.
  294.  
  295.      It is a leap of logic to assume that because a word processor
  296. costs $500, a college student will not try to make a free copy in
  297. order to write and become a little more computer literate. Do we
  298. punish this student for breaking a rule? Do we charge him with
  299. stealing $500? To the hacker culture on whose behalf I am speaking
  300. today, the only sensible answer is to make it as easy as possible for
  301. that college student to use the software he needs. And while we're at
  302. it, we should be happy that he's interested in the first place.
  303.  
  304.      Of course, this represents a fundamental change in our society's
  305. outlook. Technology as a way of life, not just another way to make
  306. money. After all, we encourage people to read books even if they can't
  307. pay for them because to our society literacy is a very important goal.
  308. I believe technological literacy is becoming increasingly important.
  309. But you cannot have literacy of any kind without having access.
  310.  
  311.      If we continue to make access to technology difficult,
  312. bureaucratic, and illogical, then there will also be more computer
  313. crime. The reason being that if you treat someone like a criminal,
  314. they will begin to act like one. If we succeed in convincing people
  315. that copying a file is the same as physically stealing something, we
  316. can hardly be surprised when the broad-based definition results in
  317. more overall crime. Blurring the distinction between a virtual
  318. infraction and a real-life crime is a mistake.
  319.  
  320. LEGISLATION FOR COMPUTER AGE CRIME
  321.  
  322.      New laws are not needed because there is not a single crime that
  323. can be committed with a computer that is not already defined as a
  324. crime without a computer. But let us not be loose with that
  325. definition. Is mere unauthorized access to a computer worthy of
  326. federal indictments, lengthy court battles, confiscation of equipment,
  327. huge fines, and years of prison time? Or is it closer to a case of
  328. trespassing, which in the real world is usually punished by a simple
  329. warning? "Of course not," some will say, "since accessing a computer
  330. is far more sensitive than walking into an unlocked office building."
  331. If that is the case, why is it still so easy to do? If it's possible
  332. for somebody to easily gain unauthorized access to a computer that has
  333. information about me, I would like to know about it. But somehow I
  334. don't think the company or agency running the system would tell me
  335. that they have gaping security holes. Hackers, on the other hand, are
  336. very open about what they discover which is why large corporations
  337. hate them so much. Through legislation, we can turn what the hackers
  338. do into a crime and there just might be a slim chance that we can stop
  339. them. But that won't fix poorly designed systems whose very existence
  340. is a violation of our privacy.
  341.  
  342. THE DANGERS OF UNINFORMED CONSUMERS
  343.  
  344.      The concept of privacy is something that is very important to a
  345. hacker. This is so because hackers know how fragile privacy is in
  346. today's world. Wherever possible we encourage people to protect their
  347. directories, encrypt their electronic mail, not use cellular phones,
  348. and whatever else it takes to keep their lives to themselves. In 1984
  349. hackers were instrumental in showing the world how TRW kept credit
  350. files on millions of Americans. Most people had never even heard of a
  351. credit file until this happened.  Passwords were very poorly guarded -
  352. in fact, credit reports had the password printed on the credit report
  353. itself. More recently, hackers found that MCI's Friends and Family
  354. program allowed anybody to call an 800 number and find out the numbers
  355. of everyone in a customer's "calling circle". As a bonus, you could
  356. also find out how these numbers were related to the customer:  friend,
  357. brother, daughter-in-law, business partner, etc. Many times these
  358. numbers were unlisted yet all that was needed to "verify" the
  359. customer's identity was the correct zip code. In both the TRW and MCI
  360. cases, hackers were ironically accused of being the ones to invade
  361. privacy. What they really did was help to educate the American
  362. consumer.
  363.  
  364.      Nowhere is this more apparent than in the telephone industry.
  365. Throughout the country, telephone companies take advantage of
  366. consumers. They do this primarily because the consumer does not
  367. understand the technology. When we don't understand something
  368. complicated, we tend to believe those who do understand. The same is
  369. true for auto mechanics, plumbers, doctors, and lawyers. They all
  370. speak some strange language that the majority of us will never
  371. understand. So we tend to believe them. The difference with the phone
  372. companies, and here I am referring to the local companies, is that you
  373. cannot deal with somebody else if you happen to disagree with them or
  374. find them untrustworthy. The phone companies have us in a situation
  375. where we must believe what they say. If we don't believe them, we
  376. cannot go elsewhere.
  377.  
  378.      This is the frustration that the hacker community constantly
  379. faces. We face it especially because we are able to understand when
  380. the local phone companies take advantage of consumers. Here are a few
  381. examples:
  382.  
  383.      Charging a fee for touch tone service. This is a misnomer.  It
  384. actually takes extra effort to tell the computer to ignore the tones
  385. that you produce. Everybody already has touch tone capability but we
  386. are forced to pay the phone company not to block it. While $1.50 a
  387. month may not seem like much, when added together the local companies
  388. that still engage in this practice are making millions of dollars a
  389. year for absolutely nothing. Why do they get away with it? Because too
  390. many of us don't understand how the phone system works. I try to draw
  391. an analogy in this particular case - imagine if the phone company
  392. decided that a fee would be charged to those customers who wanted to
  393. use the number five when dialing. They could argue that the five takes
  394. more energy than the four but most of us would see through this flimsy
  395. logic. We must seek out other such dubious practices and not blindly
  396. accept what we are told.
  397.  
  398.      Other examples abound: being charged extra not to have your name
  399. listed in the telephone directory, a monthly maintenance charge if you
  400. select your own telephone number, the fact that calling information to
  401. get a number now costs more than calling the number itself.
  402.  
  403.      More recently, we have become acquainted with a new standard
  404. called Signalling System Seven or SS7. Through this system it is
  405. possible for telephones to have all kinds of new features: Caller ID,
  406. Return Call, Repeat Calling to get through a busy signal, and more.
  407. But again, we are having the wool pulled over our eyes. For instance,
  408. if you take advantage of Call Return in New York (which will call the
  409. last person who dialed your number), you are charged 75 cents on top
  410. of the cost of the call itself.  Obviously, there is a cost involved
  411. when new technologies are introduced. But there is no additional
  412. equipment, manpower, or time consumed when you dial *69 to return a
  413. call. It's a permanent part of the system. As a comparison, we could
  414. say that it also costs money to install a hold button. Imagine how we
  415. would feel if we were charged a fee every time we used it.
  416.  
  417.      The local companies are not the only offenders but it is
  418. particularly bad in their case because, for the vast majority of
  419. Americans, there is no competition on this level. The same complaints
  420. are being voiced concerning cable television companies.
  421.  
  422.      Long distance telephone companies are also guilty. AT&T, MCI, and
  423. Sprint all encourage the use of calling cards. Yet each imposes a
  424. formidable surcharge each and every time they're used.  AT&T, for
  425. example, charges 13 cents for the first minute of a nighttime call
  426. from Washington DC to New York plus an 80 cent surcharge. Since a
  427. calling card can only be used to make telephone calls, why are
  428. consumers expected to pay an extra fee as if they were doing something
  429. above and beyond the normal capability of the card? Again, there is no
  430. extra work necessary to complete a calling card call - at least not on
  431. the phone company's part. The consumer, on the other hand, must enter
  432. up to 25 additional digits. But billing is accomplished merely by
  433. computers sending data to each other. Gone are the days of tickets
  434. being written up by hand and verified by human beings.  Everything is
  435. accomplished quickly, efficiently, and cheaply by computer. Therefore,
  436. these extra charges are outdated.
  437.  
  438. SOCIAL INJUSTICES OF TECHNOLOGY
  439.  
  440.      The way in which we have allowed public telephones to be operated
  441. is particularly unfair to those who are economically disadvantaged. A
  442. one minute call to Washington DC can cost as little as 12 cents from
  443. the comfort of your own home. However, if you don't happen to have a
  444. phone, or if you don't happen to have a home, that same one minute
  445. call will cost you $2.20. That figure is the cheapest rate there is
  446. from a Bell operated payphone. With whatever kind of logic was used to
  447. set these prices, the results are clear. We have made it harder and
  448. more expensive for the poor among us to gain access to the telephone
  449. network. Surely this is not something we can be proud of.
  450.  
  451.      A direct result of this inequity is the prevalence of red boxes.
  452. Red boxes are nothing more than tone generators that transmit a quick
  453. burst of five tones which convince the central office that a quarter
  454. has been deposited. It's very easy and almost totally undetectable.
  455. It's also been going on for decades.  Neither the local nor long
  456. distance companies have expended much effort towards stopping red
  457. boxes, which gives the impression that the payphone profits are still
  458. lucrative, even with this abuse. But even more troubling is the
  459. message this is sending.  Think of it. For a poor and homeless person
  460. to gain access to something that would cost the rest of us 12 cents,
  461. they must commit a crime and steal $2.20. This is not equal access.
  462.  
  463. CORPORATE RULES
  464.  
  465.      Hackers and phone phreaks, as some of us are called, are very
  466. aware of these facts. We learn by asking lots of questions.  We learn
  467. by going to libraries and doing research. We learn by diving into
  468. phone company trash dumpsters, reading discarded material, and doing
  469. more research. But who will listen to people like us who have been
  470. frequently characterized as criminals? I am particularly grateful that
  471. this committee has chosen to hear us.  What is very important to us is
  472. open communications. Freedom of information. An educated public.
  473.  
  474.      This puts us at direct odds with many organizations, who believe
  475. that everything they do is "proprietary" and that the public has no
  476. right to know how the public networks work. In July of 1992 we were
  477. threatened with legal action by Bellcore (the research arm of the
  478. Regional Bell Operating Companies) for revealing security weaknesses
  479. inherent in Busy Line Verification (BLV) trunks. The information had
  480. been leaked to us and we did not feel compelled to join Bellcore's
  481. conspiracy of silence. In April of this year, we were threatened with
  482. legal action by AT&T for printing proprietary information of theirs.
  483. The information in question was a partial list of the addresses of
  484. AT&T offices.  It's very hard for us to imagine how such information
  485. could be considered secret. But these actions are not surprising. They
  486. only serve to illustrate the wide disparities between the corporate
  487. mindset and that of the individual. It is essential that the hundreds
  488. of millions of Americans who will be affected by today's
  489. all-encompassing inventions not be forced to play by corporate rules.
  490.  
  491.      In 1990 a magazine similar to 2600 was closed down by the United
  492. States government because Bell South said they printed proprietary
  493. information. Most people never found out about this because Phrack
  494. Magazine was electronic, i.e., only available on computer bulletin
  495. boards and networks. This in itself is wrong; a publication must have
  496. the same First Amendment rights regardless of whether it is printed
  497. electronically or on paper. As more online journals appear, this basic
  498. tenet will become increasingly critical to our nation's future as a
  499. democracy. Apart from this matter, we must look at what Bell South
  500. claimed - that a document discussing the Enhanced 911 system which was
  501. worth $79,449 had been "stolen" and printed by Phrack. (Some newspaper
  502. accounts even managed to change it into an E911 program which gave the
  503. appearance that hackers were actually interfering with the operation
  504. of an E911 system and putting lives at risk. In reality there has
  505. never been a report of a hacker gaining access to such a system.) It
  506. was not until after the publisher of Phrack was forced to go to trial
  507. that the real value of the document was revealed. Anyone could get a
  508. copy for around $14. The government promptly dropped its case against
  509. the publisher who, to this day, is still paying back $100,000 in legal
  510. fees. As further evidence of the inquity between individual justice
  511. and corporate justice, Bell South was never charged with fraud for its
  512. claim that a $14 document was worth nearly $80,000. Their logic, as
  513. explained in a memo to then Assistant U.S. Attorney Bill Cook, was
  514. that the full salaries of everyone who helped write the document, as
  515. well as the full cost of all hardware and software used in the
  516. endeavor ($31,000 for a Vaxstation II, $6,000 for a printer), was
  517. perfectly acceptable. It is very disturbing that the United States
  518. government agreed with this assessment and moved to put a pre-law
  519. student behind bars for violating corporate rules.
  520.  
  521. MISGUIDED AUTHORITY
  522.  
  523.      I wish I could stand before this committee and say that we have
  524. been successful in stopping all such miscarriages of justice. While
  525. the Phrack case may have been the most bizarre, there are many more
  526. instances of individuals being victimized in similar manners. A
  527. teenager in Chicago was jailed for a year for copying a file that was
  528. worth millions, according to AT&T, but was utterly worthless and
  529. unusable to a kid. A bulletin board operator in California, along with
  530. his entire family, was held at gunpoint for hours while authorities
  531. seized his equipment in an unsuccessful attempt to find child
  532. pornography. Three hackers in Atlanta, after being imprisoned up to a
  533. year for dialing into a Bell South computer system that had no
  534. password, were forced to pay $233,000 in restitution so the company
  535. could install a password system. More recently, a student at the
  536. University of Texas at Houston was suspended from school for a year
  537. because he accessed a file that merely listed the users of the system
  538. (a file which the system allows all users to access). In increasing
  539. numbers, young people are being sent to jail, not necessarily for
  540. something they did, but rather for something they could have done in a
  541. worst-case scenario. Again this indicates fear and misunderstanding of
  542. technology and its applications. But this time those feelings emanate
  543. from those in authority.
  544.  
  545.      Locally, an ominous happening occurred at a 2600 monthly meeting
  546. last November. (These meetings occur in public areas in cities
  547. throughout the nation on the first Friday of every month.) Shortly
  548. after it began, the Washington meeting was broken up by Pentagon City
  549. Mall security guards. Without any provocation, people were forced to
  550. submit to searches and everybody's name was taken down. One of the
  551. attendees who was writing down an officer's name had the paper ripped
  552. from his hand, another had his film taken from his camera as he tried
  553. to document what was going on. Upon questioning by a reporter from
  554. Communications Daily, the mall security chief claimed that he was
  555. acting under orders from the United States Secret Service. Subsequent
  556. Freedom of Information Act requests by Computer Professionals for
  557. Social Responsibility have yielded more evidence implicating the
  558. Secret Service in this illegal and unwarranted action. Nothing of a
  559. criminal nature was ever found in any of the bags that were searched.
  560. But a full list of the attendees wound up in the possession of the
  561. Secret Service. It seems ironic that while hackers are conducting an
  562. open gathering in the middle of a shopping mall in order to share
  563. knowledge and welcome new people, agents of the Secret Service are
  564. lurking in the shadows trying to figure out ways to stop them.
  565.  
  566.      How can we move forward and talk about exciting new applications
  567. of technology when we're off to such a bad start?  The people that are
  568. being arrested, harassed, and intimidated are the people who will be
  569. designing and running these new systems. They are the ones who will
  570. appreciate their capabilities and understand their weaknesses. Through
  571. our short-sightedness and eagerness to listen to the loudest voices,
  572. we are alienating the promises of the future. How many here, who grew
  573. up in decades past, remember hearing teenagers talk of how the
  574. government is after them, watching their every move, listening to
  575. their phone calls, doing everything one might expect in a totalitarian
  576. regime. Such feelings are the sure sign of an ailing society. It does
  577. not matter if these things are not actually occurring - their mere
  578. perception is enough to cause lasting harm and mistrust.
  579.  
  580. PROMISE OF THE INTERNET
  581.  
  582.      The future holds such enormous potential. It is vital that we not
  583. succumb to our fears and allow our democratic ideals and privacy
  584. values to be shattered. In many ways, the world of cyberspace is more
  585. real than the real world itself. I say this because it is only within
  586. the virtual world that people are really free to be themselves - to
  587. speak without fear of reprisal, to be anonymous if they so choose, to
  588. participate in a dialogue where one is judged by the merits of their
  589. words, not the color of their skin or the timbre of their voice.
  590. Contrast this to our existing "real" world where we often have people
  591. sized up before they even utter a word. The Internet has evolved, on
  592. its own volition, to become a true bastion of worldwide democracy. It
  593. is the obligation of this committee, and of governments throughout the
  594. world, not to stand in its way.
  595.  
  596.      This does not mean we should stand back and do nothing.  Quite
  597. the contrary, there is much we have to do if accessibility and
  598. equality are our goals. Over-regulation and commercialization are two
  599. ways to quickly kill these goals. A way to realize them is to have a
  600. network access point in every house. Currently, network access is
  601. restricted to students or professors at participating schools,
  602. scientists, commercial establishments, and those who have access to,
  603. and can afford, local services that link into the Internet. Yes, a lot
  604. of people have access today.  But a far greater number do not and it
  605. is to these people that we must speak. The bigger the Internet gets,
  606. the better it gets. As it exists today, cultures from around the globe
  607. are represented; information of all kinds is exchanged. People are
  608. writing, reading, thinking. It's potentially the greatest educational
  609. tool we have. Therefore, it is essential that we not allow it to
  610. become a commodity that only certain people in society will be able to
  611. afford. With today's technology, we face the danger of widening the
  612. gap between the haves and the have-nots to a monumental level. Or we
  613. can open the door and discover that people really do have a lot to
  614. learn from each other, given the opportunity.
  615.  
  616.      It is my hope that this committee will recognize the importance
  617. of dialogue with the American public, in order to answer the questions
  618. so many are asking and to address the concerns that have been
  619. overlooked. I thank you for this opportunity to express those issues
  620. that I feel relevant to this hearing.
  621.  
  622. ------------------------------
  623.  
  624. Date:         Sat, 12 Jun 1993 12:30:38 EST
  625. From:         Dave Banisar <banisar@WASHOFC.CPSR.ORG>
  626. Subject: File 2--CPSR Clipper Testimony (6-9-93) in House Subcommittee
  627.  
  628.   CPSR Clipper Testimony 6/9
  629.  
  630.         On June 9, 1993, Congressman Edward Markey, Chairman of the
  631. House  Subcommittee on Telecommunications and Finance held an
  632. oversight hearing on Rencryption and telecommunications network
  633. security. Panelists were Whitfield Diffie of Sun Microsystems, Dr.
  634. Dorothy Denning,  Steven Bryen of Secure Communications, Marc
  635. Rotenberg of the CPSR Washington Office and E.R. Kerkeslager of AT&T.
  636.  
  637.         Congressman Markey, after hearing the testimony presented,
  638. noted that the Clipper proposal had raised an arched eyebrow among
  639. the whole committeeS and that the committee viewed the proposal
  640. skeptically. This statement was the latest indication that the Clipper
  641. proposal has not been well received by policy makers.  Last Friday,
  642. the Computer Systems Security and Privacy Advisory Board of NIST
  643. issued two resolutions critical of the encryption plan, suggesting
  644. that further study was required and that implementation of the plan
  645. should be delayed until the review is completed.
  646.  
  647.         At the Third CPSR Cryptography and Privacy Conference on
  648. Monday, June 7, the Acting Director of NIST, Raymond Kammer, announced
  649. that the implementation of the proposal will be delayed and that a
  650. more comprehensive review will be undertaken.  The review is due in
  651. the fall.  Kammer told the Washington Post that Rmaybe we wonUt
  652. continue in the direction we started ous.
  653.  
  654. +-------------------------------------------------
  655.  
  656.                           Prepared Testimony
  657.                                  and
  658.                        Statement for the Record
  659.                                   of
  660.                         Marc Rotenberg, director
  661.                          CPSR Washington Office
  662.                                   on
  663.                    Encryption Technology and Policy
  664.                                 Before
  665.             The Subcommittee on Telecommunications and Finance.
  666.                    Committee on Energy and Commerce
  667.  
  668.                         U.S. House of Representatives
  669.                                June 9, 1993
  670.  
  671. SUMMARY
  672.  
  673.         The cryptography issue is of particular concern to CPSR.
  674. During the past several years CPSR has pursued an extensive study of
  675. cryptography policy in the United States.  CPSR has organized public
  676. conferences, conducted litigation under the Freedom of Information Act,
  677. and has emphasized the importance of cryptography for privacy
  678. protection and the need to scrutinize carefully government proposals
  679. designed to limit the use of this technology.
  680.         To evaluate the Clipper proposal it is necessary to look at a
  681. 1987 law, the Computer Security Act, which made clear that in the area
  682. of unclassified computing systems, the National Institute of Standards
  683. and Technology (NIST) and not the National Security Agency (NSA), would
  684. be responsible for the development of technical standards.  The Act
  685. emphasized public accountability and stressed open decision-making.
  686.         In the spirit of the Act, in 1989 NIST set out to develop a
  687. public key cryptography standard.  According to documents obtained by
  688. CPSR through the Freedom of Information Act, NIST recommended that the
  689. algorithm be "public, unclassified, implementable in both hardware or
  690. software, usable by federal Agencies and U.S. based multi-national
  691. corporation." However, the Clipper proposal and the full-blown Capstone
  692. configuration that resulted is very different: the Clipper algorithm,
  693. Skipjack, is classified; public access to the reasons underlying the
  694. proposal is restricted; Skipjack can be implemented only in
  695. tamper-proof hardware; it is unlikely to be used by multi-national
  696. corporations, and the security of Clipper remains unproven.
  697.         The Clipper proposal undermines the central purpose of the
  698. Computer Security Act.  Although intended for broad use in commercial
  699. networks, it was not developed at the request of either U.S. business
  700. or the general public.  It does not reflect public goals.
  701.         The premise of the Clipper key escrow arrangement is that the
  702. government must have the ability to intercept electronic
  703. communications.  However, there is no legal basis to support this
  704. premise. In law there is nothing inherently illegal or suspect about
  705. the use of a telephone.  The federal wiretap statute says only that
  706. communication service providers must assist law enforcement execute a
  707. lawful warrant.
  708.         CPSR supports the review of cryptography policy currently
  709. underway at the Department of Commerce.  CPSR also supports the efforts
  710. undertaken by the Subcommittee on Telecommunications and Finance to
  711. study the full ramifications of the Clipper proposal.  However, we are
  712. not pleased about the review now being undertaken at the White House.
  713. That effort has led to a series of secret meetings, has asked that
  714. scientists sign non-disclosure agreements and accept restrictions on
  715. publication, and has attempted to resolve public concerns through
  716. private channels.  This is not a good process for the evaluation of a
  717. technology that is proposed for the public switched network.
  718.         Even if the issues regarding Clipper are resolved favorably,
  719. privacy concerns will not go away. Rules still need to be developed
  720. about the collection and use of transactional data generated by
  721. computer communications.  Several specific steps should be taken.
  722. First, the FCC should be given a broad mandate to pursue privacy
  723. concerns.  Second, current gaps in the communications law should be
  724. filled.  The protection of transactional records is particularly
  725. important.  Third, telecommunications companies should be encouraged to
  726. explore innovative ways to protect privacy.  "Telephone cards", widely
  727. available in other countries, are an ideal way to protect privacy.
  728.  
  729.  
  730. TESTIMONY
  731.  
  732.         Mr. Chairman, members of the Subcommittee, thank you for the
  733. opportunity to testify today on encryption policy and the Clipper
  734. proposal.  I especially wish to thank you Congressman Markey, on behalf
  735. of CPSR, for your ongoing efforts on the privacy front as well as your
  736. work to promote public access to electronic information.
  737.         The cryptography issue is of particular concern to CPSR.
  738. During the past several years we have pursued an extensive study of
  739. cryptography policy in the United States.  We have organized several
  740. public conferences, conducted litigation under the Freedom of
  741. Information Act, and appeared on a number of panels to discuss the
  742. importance of cryptography for privacy protection and the need to
  743. scrutinize carefully government proposals designed to limit the use of
  744. this technology.
  745.         While we do not represent any particular computer company or
  746. trade association we do speak for a great many people in the computer
  747. profession who value privacy and are concerned about the government's
  748. Clipper initiative.
  749.         Today I will briefly summarize our assessment of the Clipper
  750. proposal.  Then I would like to say a few words about the current
  751. status of privacy protection.
  752.  
  753. CLIPPER
  754.         To put the Clipper proposal in a policy context, I will need to
  755. briefly to describe a law passed in 1987 intended to address the roles
  756. of the Department of Commerce and the Department of Defense in the
  757. development of technical standards.  The Computer Security Act of 1987
  758. was enacted to improve computer security in the federal government, to
  759. clarify the responsibilities of the National Institute of Standards and
  760. Technology (NIST) and the National Security Agency, and to ensure that
  761. technical standards would serve civilian and commercial needs.
  762.         The law made clear that in the area of unclassified computing
  763. systems, NIST and not NSA, would be responsible for the development of
  764. technical standards.  It emphasized public accountability and stressed
  765. open decision-making.  The Computer Security Act also established the
  766. Computer System Security and Privacy Advisory Board (CSSPAB), charged
  767. with reviewing the activities of NIST and ensuring that the mandate of
  768. the law was enforced.
  769.         The Computer Security Act grew out of a concern that classified
  770. standards and secret meetings would not serve the interests of the
  771. general public.  As the practical applications for cryptography have
  772. moved from the military and intelligence arenas to the commercial
  773. sphere, this point has become clear.  There is also clearly a conflict
  774. of interest when an agency tasked with signal interception is also
  775. given authority to develop standards for network security.
  776.         In the spirit of the Computer Security Act, NIST set out in
  777. 1989 to develop a public key standard FIPS (Federal Information
  778. Processing Standard).  In a memo dated May 5, 1989, obtained by CPSR
  779. through the Freedom of Information Act, NIST said that it planned:
  780.  
  781. to develop the necessary public-key based security standards.  We
  782. require a public-key algorithm for calculating digital signatures and
  783. we also require a public-key algorithm for distributing secret keys.
  784.  
  785. NIST then went on to define the requirements of the standard:
  786.  
  787. The algorithms that we use must be public, unclassified, implementable
  788. in both hardware or software, usable by federal Agencies and U.S. based
  789. multi-national corporation, and must provide a level of security
  790. sufficient for the protection of unclassified, sensitive information
  791. and commercial propriety and/or valuable information.
  792.  
  793.         The Clipper proposal and the full-blown Capstone configuration,
  794. which incorporates the key management function NIST set out to develop
  795. in 1989, is very different from the one originally conceived by NIST.
  796.  
  797. %       The Clipper algorithm, Skipjack, is classified,
  798. %       Public access to the reasons underlying the proposal is
  799. restricted,
  800. %       Skipjack can be implemented only in tamper-proof hardware,
  801. %       It is Unlikely to be used by multi-national corporations, and
  802. %       The security of Clipper remains unproven.
  803.  
  804.         The Clipper proposal undermines the central purpose of the
  805. Computer Security Act.  Although intended for broad use in commercial
  806. networks, it was not developed at the request of either U.S. business
  807. or the general public.  It does not reflect public goals.  Rather it
  808. reflects the interests of one secret agency with the authority to
  809. conduct foreign signal intelligence and another government agency
  810. responsible for law enforcement investigations.
  811.         Documents obtained by CPSR through the Freedom of Information
  812. Act indicate that the National Security Agency dominated the meetings
  813. of the joint NIST/NSA Technical Working group which made
  814. recommendations to NIST regarding public key cryptography, and that a
  815. related technical standard for message authentication, the Digital
  816. Signature Standard, clearly reflected the interests of the NSA.
  817.         We are still trying to determine the precise role of the NSA in
  818. the development of the Clipper proposal.  We would be pleased to
  819. provide to the Subcommittee whatever materials we obtain.
  820.  
  821. LEGAL AND POLICY ISSUES
  822.         There are also several legal and constitutional issues raised
  823. by the government's key escrow proposal.  The premise of the Clipper
  824. key escrow arrangement is that the government must have the ability to
  825. intercept electronic communications, regardless of the economic or
  826. societal costs.  The FBI's Digital Telephony proposal, and the earlier
  827. Senate bill 266, were based on the same assumption.
  828.         There are a number of arguments made in defense of this
  829. position: that privacy rights and law enforcement needs must be
  830. balanced, or that the government will be unable to conduct criminal
  831. investigations without this capability.
  832.         Regardless of how one views these various claims, there is one
  833. point about the law that should be made very clear: currently there is
  834. no legal basis -- in statute, the Constitution or anywhere else --
  835. that supports the premise which underlies the Clipper proposal.  As the
  836. law currently stands, surveillance is not a design goal.  General
  837. Motors would have a stronger legal basis for building cars that could
  838. go no faster than 65 miles per hour than AT&T does in marketing a
  839. commercial telephone that has a built-in wiretap capability.  In law
  840. there is simply nothing about the use of a telephone that is inherently
  841. illegal or suspect.
  842.         The federal wiretap statute says only that communication
  843. service providers must assist law enforcement in the execution of a
  844. lawful warrant.  It does not say that anyone is obligated to design
  845. systems to facilitate future wire surveillance.  That distinction is
  846. the difference between countries that restrict wire surveillance to
  847. narrow circumstances defined in law and those that treat all users of
  848. the telephone network as potential criminals.  U.S. law takes the first
  849. approach.  Countries such as the former East Germany took the second
  850. approach.  The use of the phone system by citizens was considered
  851. inherently suspect and for that reason more than 10,000 people were
  852. employed by the East German government to listen in on telephone calls.
  853.         It is precisely because the wiretap statute does not contain
  854. the obligation to incorporate surveillance capability -- the design
  855. premise of the Clipper proposal -- that the Federal Bureau of
  856. Investigation introduced the Digital Telephony legislation.  But that
  857. legislation has not moved forward and the law has remained unchanged.
  858. The Clipper proposal attempts to accomplish through the
  859. standard-setting and procurement process what the Congress has been
  860. unwilling to do through the legislative process.
  861.         On legal grounds, adopting the Clipper would be a mistake.
  862. There is an important policy goal underlying the wiretap law.  The
  863. Fourth Amendment and the federal wiretap statute do not so much balance
  864. competing interests as they erect barriers against government excess
  865. and define the proper scope of criminal investigation.  The purpose of
  866. the federal wiretap law is to restrict the government, it is not to
  867. coerce the public.
  868.         Therefore, if the government endorses the Clipper proposal, it
  869. will undermine the basic philosophy of the federal wiretap law and the
  870. fundamental values embodied in the Constitution.  It will establish a
  871. technical mechanism for signal interception based on a premise that has
  872. no legal foundation.  The assumption underlying the Clipper proposal is
  873. more compatible with the practice of telephone surveillance in the
  874. former East Germany than it is with the narrowly limited circumstances
  875. that wire surveillance has been allowed in the United States.
  876.  
  877. UNANSWERED QUESTIONS
  878.         There are a number of other legal issues that have not been
  879. adequately considered by the proponents of the key escrow arrangement
  880. that the Subcommittee should examine.  First, not all lawful wiretaps
  881. follow a normal warrant process.  The proponents of Clipper should make
  882. clear how emergency wiretaps will be conducted before the proposal goes
  883. forward.  Second, there may be civil liability issues for the escrow
  884. agents, if they are private parties, if there is abuse or compromise of
  885. the keys.  Third, there is a Fifth Amendment dimension to the proposed
  886. escrow key arrangement if a network user is compelled to disclose his
  887. or her key to the government in order to access a communications
  888. network. Each one of these issues should be examined carefully.
  889.  
  890.  
  891. CPSR CONFERENCE
  892.         At a conference organized by CPSR this week at the Carnegie
  893. Endowment for International Peace we heard presentations from staff
  894. members at NIST, FBI, NSA and the White House about the Clipper
  895. proposal.  The participants at the meeting had the opportunity to ask
  896. questions and to exchange views.
  897.         Certain points now seem clear:
  898.  
  899. %       The Clipper proposal was not developed in response to any
  900. perceived public or business need.  It was developed solely to address
  901. a law enforcement concern.
  902. %       Wire surveillance remains a small part of law enforcement
  903. investigations.  The number of arrests resulting from wiretaps has
  904. remained essentially unchanged since the federal wiretap law was enacted
  905. in 1968.
  906. %       The potential risks of the Clipper proposal have not been
  907. assessed and many questions about the implementation remain unanswered.
  908. %       Clipper does not appear to have the support of the business or
  909. research community.
  910.  
  911.         Many comments on the Clipper proposal, both positive and
  912. negative as well the materials obtained by CPSR through the Freedom of
  913. Information Act, are contained in the Source book compiled by CPSR for
  914. the recent conference.  I am please to make a copy of this available to
  915. the Subcommittee.
  916.  
  917.  
  918. NETWORK PRIVACY PROTECTION
  919.         Communications privacy remains a critical test for network
  920. development.  Networks that do not provide a high degree of privacy are
  921. clearly less useful to network users.  Given the choice between a
  922. cryptography product without a key escrow and one with a key escrow, it
  923. would be difficult to find a user who would prefer the key escrow
  924. requirement.  If this proposal does go forward, it will not be because
  925. network users or commercial service providers favored it.
  926.         Even if the issues regarding the Clipper are resolved
  927. favorably, privacy concerns will not go away.  Cryptography is a part
  928. of communications privacy, but it is only a small part.  Rules still
  929. need to be developed about the collection and use of transactional data
  930. generated by computer communications.  While the federal wiretap law
  931. generally does a very good job of protecting the content of
  932. communications against interception by government agencies, large holes
  933. still remain.  The extensive use of subpoenas by the government to
  934. obtain toll records and the sale of telephone records by private
  935. companies are just two examples of gaps in current law.
  936.         The enforcement of privacy laws is also a particularly serious
  937. concern in the United States.  Good laws without clear mechanisms for
  938. enforcement raise over-arching questions about the adequacy of legal
  939. protections in this country.  This problem is known to those who have
  940. followed developments with the Privacy Act since passage in 1974 and
  941. the more recent Video Privacy and Protection Act of 1988.  I make this
  942. point because it has been the experience in other countries that
  943. agencies charged with the responsibility for privacy protection can be
  944. effective advocates for the public in the protection of personal
  945. privacy.
  946.  
  947. RECOMMENDATIONS
  948.         Regarding the Clipper proposal, we believe that the national
  949. review currently underway by the Computer Security and Privacy Advisory
  950. Board at the Department of Commerce will be extremely useful and we
  951. look forward to the results of that effort.  The Panel has already
  952. conducted a series of important open hearings and compiled useful
  953. materials on Clipper and cryptography policy for public review.
  954.         We are also pleased that the Subcommittee on Telecommunications
  955. and Finance has undertaken this hearing.  This Subcommittee can play a
  956. particularly important role in the resolution of these issues.  We also
  957. appreciate the Chairman's efforts to ensure that the proper studies are
  958. undertaken, that the General Accounting Office fully explores these
  959. issues, and that the Secretary of Commerce carefully assesses the
  960. potential impact of the Clipper proposal on export policy.
  961.         We are, however, less pleased about the White House study
  962. currently underway.  That effort, organized in large part by the
  963. National Security Council, has led to a series of secret meetings, has
  964. asked that scientists sign non-disclosure agreements and accept
  965. restrictions on publication, and has attempted to resolve public
  966. concerns through private channels.  This is not a good process for the
  967. evaluation of a technology that is proposed for the public switched
  968. network.  While we acknowledge that the White House has been reasonably
  969. forthcoming in explaining the current state of affairs, we do not think
  970. that this process is a good one.
  971.         For these reasons, we believe that the White House should
  972. properly defer to the recommendations of the Computer System Security
  973. and Privacy Advisory Board and the Subcommittee on Telecommunications
  974. and Finance.  We hope that no further steps in support of the Clipper
  975. initiative will be taken.  We specifically recommend that no further
  976. purchase of Clipper chips be approved.
  977.         Speaking more generally, we believe that a number of steps
  978. could be taken to ensure that future communications initiatives could
  979. properly be viewed as a boost to privacy and not a set-back.
  980.  
  981. %       The FCC must be given a strong mandate to pursue privacy
  982. concerns.  There should be an office specifically established to
  983. examine privacy issues and to prepare reports.  Similar efforts in
  984. other countries have been enormously successful.  The Japanese Ministry
  985. of Post and Telecommunications developed a set of privacy principles to
  986. ensure continued trade with Europe.  The Canada Ministry of
  987. Communications developed a set of communications principles to address
  988. public concerns about the privacy of cellular communications.  In
  989. Europe, the EC put forward an important directive on privacy protection
  990. for the development of new network services.
  991.  
  992. %       Current gaps in the communications law should be filled.  The
  993. protection of transactional records is particularly important.
  994. Legislation is needed to limit law enforcement access to toll record
  995. information and to restrict the sale of data generated by the use of
  996. telecommunication services.  As the network becomes digital, the
  997. transaction records associated with a particular communication may
  998. become more valuable than the content of the communication itself.
  999.  
  1000. %       Telecommunications companies should be encouraged to explore
  1001. innovative ways to protect privacy.  Cryptography is a particular
  1002. method to seal electronic communications, but far more important for
  1003. routine communications could be anonymous telephone cards, similar to
  1004. the metro cards here in the District of Columbia, that allow consumers
  1005. to purchase services without establishing accounts, transferring
  1006. personal data, or recording personal activities.  Such cards are widely
  1007. available in Europe, Japan, and Australia.
  1008.  
  1009.         I thank you very much for the opportunity to appear before the
  1010. Subcommittee and would be pleased to answer your questions Computer
  1011. Professionals for Social Responsibility
  1012.  
  1013.         CPSR is a national membership organization, established in
  1014. 1982, to address the social impact of computer technology.  There are
  1015. 2,500 members in 20 chapters across the United States, and offices in
  1016. Palo Alto, California, Cambridge, Massachusetts, and Washington DC. The
  1017. organization is governed by a board of elected officers and meetings
  1018. are open to the public.  CPSR sponsors an annual meeting and the
  1019. biennial conference on Directions and Implications of Advanced
  1020. Computing.  CPSR sponsored the first conference on Computers, Freedom,
  1021. and Privacy in 1991.  CPSR also operates the Internet Library at
  1022. cpsr.org.  The library contains documents from the White House on
  1023. technology policy and a wide range of public laws covering privacy,
  1024. access to information, and communications law and is available free of
  1025. charge to all users of the Internet.
  1026.  
  1027.         Marc Rotenberg is the director of the CPSR Washington office
  1028. and an adjunct professor at Georgetown University Law Center.  He is
  1029. chairman of the ACM Committee on Scientific Freedom and Human Rights,
  1030. an editor for the Computer Law and Security Report (London), and the
  1031. secretary of Privacy International, an organization of human rights
  1032. advocates and privacy scholars in forty countries.  He received an A.B.
  1033. from Harvard College and a J.D. from Stanford Law School, and is a
  1034. member of the bar of the United States Supreme Court.  His forthcoming
  1035. article "Communications Privacy: Implications for Network Design" will
  1036. appear in the August 1993 issue of Communications o0f the ACM.
  1037.  
  1038. ------------------------------
  1039.  
  1040. End of Computer Underground Digest #5.43
  1041. ************************************
  1042. -- 
  1043. Chip Rosenthal  512-447-0577 | I'm going out where the lights don't shine so
  1044. Unicom Systems Development   | bright.  When I get back you can treat me like
  1045. <chip@chinacat.Unicom.COM>   | a Saturday night.  -Jimmie Dale Gilmore
  1046.