home *** CD-ROM | disk | FTP | other *** search
/ Monster Media 1993 #2 / Image.iso / magazine / cud543.zip / CUD_5_43.TXT
Text File  |  1993-06-15  |  60KB  |  1,031 lines

  1. Computer underground Digest    Sun June 13 1993   Volume 5 : Issue 43
  2.                            ISSN  1004-043X
  3.  
  4.        Editors: Jim Thomas and Gordon Meyer (TK0JUT2@NIU.BITNET)
  5.        Archivist: Brendan Kehoe
  6.        Shadow-Archivists: Dan Carosone / Paul Southworth
  7.                           Ralph Sims / Jyrki Kuoppala
  8.                           Ian Dickinson
  9.        Copy Editor: Etaoin Shrdlu, Seniur
  10.  
  11. CONTENTS, #5.43 (June 13 1993)
  12. File 1--Hacker testimony to House subcommittee largely unheard
  13. File 2--CPSR Clipper Testimony (6-9-93) in House Subcommittee
  14.  
  15. Cu-Digest is a weekly electronic journal/newsletter. Subscriptions are
  16. available at no cost electronically from tk0jut2@mvs.cso.niu.edu. The
  17. editors may be contacted by voice (815-753-6430), fax (815-753-6302)
  18. or U.S. mail at:  Jim Thomas, Department of Sociology, NIU, DeKalb, IL
  19. 60115.
  20.  
  21. Issues of CuD can also be found in the Usenet comp.society.cu-digest
  22. news group; on CompuServe in DL0 and DL4 of the IBMBBS SIG, DL1 of
  23. LAWSIG, and DL0 and DL12 of TELECOM; on GEnie in the PF*NPC RT
  24. libraries and in the VIRUS/SECURITY library; from America Online in
  25. the PC Telecom forum under "computing newsletters;"
  26. On Delphi in the General Discussion database of the Internet SIG;
  27. on the PC-EXEC BBS at (414) 789-4210; and on: Rune Stone BBS (IIRG
  28. WHQ) 203-832-8441 NUP:Conspiracy
  29. CuD is also available via Fidonet File Request from 1:11/70; unlisted
  30. nodes and points welcome.
  31. EUROPE:   from the ComNet in LUXEMBOURG BBS (++352) 466893;
  32.           In ITALY: Bits against the Empire BBS: +39-461-980493
  33.  
  34. ANONYMOUS FTP SITES:
  35.   UNITED STATES:  ftp.eff.org (192.88.144.4) in /pub/cud
  36.                   uglymouse.css.itd.umich.edu (141.211.182.53) in /pub/CuD/cud
  37.                   halcyon.com( 202.135.191.2) in /pub/mirror/cud
  38.   AUSTRALIA:      ftp.ee.mu.oz.au (128.250.77.2) in /pub/text/CuD.
  39.   EUROPE:         nic.funet.fi in pub/doc/cud. (Finland)
  40.                   ftp.warwick.ac.uk in pub/cud (United Kingdom)
  41.  
  42. COMPUTER UNDERGROUND DIGEST is an open forum dedicated to sharing
  43. information among computerists and to the presentation and debate of
  44. diverse views.  CuD material may  be reprinted for non-profit as long
  45. as the source is cited. Authors hold a presumptive copyright, and
  46. they should be contacted for reprint permission.  It is assumed that
  47. non-personal mail to the moderators may be reprinted unless otherwise
  48. specified.  Readers are encouraged to submit reasoned articles
  49. relating to computer culture and communication.  Articles are
  50. preferred to short responses.  Please avoid quoting previous posts
  51. unless absolutely necessary.
  52.  
  53. DISCLAIMER: The views represented herein do not necessarily represent
  54.             the views of the moderators. Digest contributors assume all
  55.             responsibility for ensuring that articles submitted do not
  56.             violate copyright protections.
  57.  
  58. ----------------------------------------------------------------------
  59.  
  60. Date:   Thu, 10 Jun 1993 16:53:48 -0700
  61. From: Emmanuel Goldstein <emmanuel@WELL.SF.CA.US>
  62. Subject: File 1--Hacker testimony to House subcommittee largely unheard
  63.  
  64. What follows is a copy of my written testimony before the House
  65. Subcommittee on Telecommunications and Finance. The June 9th hearing
  66. was supposed to have been on the topic of network security, toll
  67. fraud, and the social implications of the rapidly emerging
  68. technologies. I was asked to speak for those who had no voice, which
  69. translates to hackers and consumers. Instead I found myself barraged
  70. with accusations from the two representatives in attendance (Rep. Ed
  71. Markey D-MA and Rep. Jack Fields R-TX) who considered 2600 Magazine
  72. (of which I'm the editor) nothing more than a manual for computer
  73. crime. One article in particular that Markey latched upon was one in
  74. our Spring issue that explained how a cable descrambler worked.
  75. According to Markey, there was no use for this information outside of
  76. a criminal context. Fields claimed we were printing cellular "codes"
  77. that allowed people to listen in on cellular calls. In actuality, we
  78. printed frequencies. The difference didn't seem to matter - after
  79. explaining it to him, he still said he was very disturbed by the fact
  80. that I was allowed to keep publishing. It soon became apparent to me
  81. that neither one had read my testimony as there seemed to be no
  82. inclination to discuss any of the issues I had brought up. In a way,
  83. it was very much like being on the Geraldo show. Somehow I thought
  84. elected representatives would be less sensationalist and more
  85. interested in learning but this was not the case here. We got
  86. absolutely nowhere. Markey in particular was rude, patronizing, and
  87. not at all interested in entertaining any thought outside his narrow
  88. perception. It's too bad this opportunity was lost. There is a real
  89. danger in elected officials who don't listen to all relevant opinions
  90. and who persist in sticking to old-fashioned, outdated notions that
  91. just don't apply to high technology. You can look forward to more
  92. restrictive regulations and higher penalties for violating them if
  93. this mentality continues to dominate.
  94.  
  95. +++++++++++++++++++
  96. WRITTEN TESTIMONY FOLLOWS:
  97.  
  98.      Mr. Chairman, members of the Committee, thank you for the
  99. opportunity to speak on the issue of the rapid growth and changes in
  100. the telecommunications industry.
  101.  
  102.      My name is Emmanuel Goldstein and I am the publisher of 2600
  103. Magazine, which is a journal for computer hackers as well as anyone
  104. else who happens to be interested in the direction that technology is
  105. taking us. We tend to be brutally honest in our assessments and, as a
  106. result, we do get some corporations quite angry at us. But we've also
  107. managed to educate a large number of people as to how their telephone
  108. system works, what kinds of computers may be watching them, and how
  109. they can shape technology to meet their needs, rather than be forced
  110. to tailor their existence to meet technology's needs.
  111.  
  112.      I am also the host of a weekly radio program called Off The Hook
  113. which airs over WBAI in New York. Through that forum we have
  114. discovered the eagerness and curiosity that many "ordinary people on
  115. the street" possess for technology. At the same time we have seen
  116. fears and suspicions expressed that would be unwise to ignore.
  117.  
  118. HOW TO HANDLE RAPIDLY CHANGING TECHNOLOGY
  119.  
  120.      The next few years will almost certainly go down in history as
  121. those in which the most change took place in the least amount of time.
  122. The computer and telecommunications revolution that we are now in the
  123. midst of is moving full speed ahead into unknown territory. The
  124. potential for amazing advances in individual thought and creativity is
  125. very real. But so is the potential for oppression and mistrust the
  126. likes of which we have never before seen. One way or the other, we
  127. will be making history.
  128.  
  129.      I think we can imagine it best if we think of ourselves speeding
  130. down a potentially dangerous highway. Perhaps the road will become
  131. slick with ice or fraught with sharp curves. It's a road that nobody
  132. has gone down before. And the question we have to ask ourselves is
  133. what kind of a vehicle would we prefer to be in if things should start
  134. getting out of control: our own automobile where we would have at
  135. least some chance of controlling the vehicle and bringing it down to a
  136. safe speed or a bus where we, along with many others, must put all of
  137. our trust behind a total stranger to prevent a disaster. The answer is
  138. obviously different depending on the circumstances. There are those of
  139. us who do not want the responsibility of driving and others who have
  140. proven themselves unworthy of it. What's important is that we all have
  141. the opportunity at some point to choose which way we want to go.
  142.  
  143.      Rapidly changing technology can also be very dangerous if we
  144. don't look where we're going or if too many of us close our eyes and
  145. let someone else do the driving. This is a ride we all must stay awake
  146. for.
  147.  
  148.      I am not saying we should be overly suspicious of every form of
  149. technology. I believe we are on the verge of something very positive.
  150. But the members of this committee should be aware of the dangers of an
  151. uninformed populace. These dangers will manifest themselves in the
  152. form of suspicion towards authority, overall fear of technology, and
  153. an unhealthy feeling of helplessness.
  154.  
  155. HOW NEW TECHNOLOGY CAN HURT US
  156.  
  157.      The recent FBI proposal to have wiretap capabilities built into
  158. digital telephone systems got most of its publicity because American
  159. taxpayers were expected to foot the bill. But to many of the
  160. non-technical people I talked to, it was just another example of Big
  161. Brother edging one step closer. It is commonly believed that the
  162. National Security Agency monitors all traffic on the Internet, not to
  163. mention all international telephone calls.  Between Caller ID, TRW
  164. credit reports, video cameras, room monitors, and computer
  165. categorizations of our personalities, the average American feels as if
  166. life no longer has many private moments. Our Social Security numbers,
  167. which once were for Social Security, are now used for everything from
  168. video rentals to driver's licenses. These numbers can easily be used
  169. to track a person's location, expenses, and habits - all without any
  170. consent. If you know a person's name, you can get their telephone
  171. number. If you have their phone number, you can get their address.
  172. Getting their Social Security number is not even a challenge anymore.
  173. With this information, you can not only get every bit of information
  174. about this person that exists on any computer from Blockbuster Video
  175. to the local library to the phone company to the FBI, but you can
  176. begin to do things in this poor person's name. It's possible we may
  177. want a society like this, where we will be accountable for our every
  178. movement and where only criminals will pursue privacy. The American
  179. public needs to be asked. But first, they need to understand.
  180.  
  181.      In Germany, there is a fairly new computerized system of identity
  182. cards. Every citizen must carry one of these cards. The information
  183. includes their name, address, date of birth, and nationality - in
  184. other words, the country they were originally born in. Such a system
  185. of national identity can be quite useful, but in the wrong hands it
  186. can be extremely scary. For example, if a neo-Nazi group were to
  187. somehow get their hands on the database, they could instantly find out
  188. where everyone of Turkish nationality lived. A malevolent government
  189. could do the same and, since not carrying the card would be a crime,
  190. it would be very hard to avoid its wrath.
  191.  
  192.      Before introducing a new technology that is all-encompassing, all
  193. of its potential side-effects and disadvantages should be discussed
  194. and addressed. Opportunities must exist for everyone to ask questions.
  195. In our own country, nobody was ever asked if they wanted a credit file
  196. opened on them, if they wanted to have their phone numbers given to
  197. the people and companies they called through the use of Caller ID and
  198. ANI, or if they wanted to be categorized in any manner on numerous
  199. lists and databases. Yet all of this has now become standard practice.
  200.  
  201.      This implementation of new rules has resulted in a degree of
  202. cynicism in many of us, as well as a sense of foreboding and dread. We
  203. all know that these new inventions will be abused and used to
  204. somebody's advantage at some point. There are those who would have us
  205. believe that the only people capable of such misdeeds are computer
  206. hackers and their ilk. But it just isn't that simple.
  207.  
  208. UNDERSTANDING COMPUTER HACKERS
  209.  
  210.      To understand computer hackers, it helps to think of an alien
  211. culture. We have such cultures constantly around us - those with
  212. teenage children ought to know what this means. There are alien
  213. cultures of unlimited varieties throughout the globe, sometimes in the
  214. most unexpected places. I'm convinced that this is a good thing.
  215. Unfortunately, all too often our default setting on whatever it is we
  216. don't understand is "bad". Suspicion and hostility follow and are soon
  217. met with similar feelings from the other side. This has been going on
  218. between and within our cultures for as long as we've existed. While we
  219. can't stop it entirely, we can learn to recognize the danger signs.
  220. The best way that I've found to deal with an alien culture, whether
  221. it's in a foreign country or right here at home, is to try and
  222. appreciate it while giving it a little leeway. There is not a single
  223. alien culture I've encountered that has not been decidedly friendly.
  224. That includes deadheads, skateboarders, Rastafarians, and hackers.
  225.  
  226.      When we talk about computer hackers, different images spring to
  227. mind. Most of these images have come about because of perceptions
  228. voiced by the media. Too often, as I'm sure the members of this
  229. committee already suspect, the media just doesn't get it. This is not
  230. necessarily due to malice on their part but rather a general lack of
  231. understanding and an overwhelming pressure to produce a good story.
  232. Hence we get an abundance of sensationalism and, when the dust clears,
  233. hackers are being compared with bank robbers, mobsters, terrorists,
  234. and the like.  It's gotten to the point that the word hacker is almost
  235. analogous to the word criminal.
  236.  
  237.      Fortunately, the media is learning. Reporters now approach
  238. hackers with a degree of technological savvy. For the most part, they
  239. have stopped asking us to commit crimes so they can write a story
  240. about it. As the technology envelops us, journalists are developing
  241. the same appreciation and curiosity for it that hackers have always
  242. had. Any good reporter is at least part hacker because what a hacker
  243. does primarily is relentlessly pursue an answer. Computers naturally
  244. lend themselves to this sort of pursuit, since they tend to be very
  245. patient when asked a lot of questions.
  246.  
  247. WHAT CONSTITUTES A HI-TECH CRIME?
  248.  
  249.      So where is the boundary between the hacker world and the
  250. criminal world? To me, it has always been in the same place. We know
  251. that it's wrong to steal tangible objects. We know that it's wrong to
  252. vandalize. We know that it's wrong to invade somebody's privacy. Not
  253. one of these elements is part of the hacker world.
  254.  
  255.      A hacker can certainly turn into a criminal and take advantage of
  256. the weaknesses in our telephone and computer systems. But this is
  257. rare. What is more likely is that a hacker will share knowledge with
  258. people, one of whom will decide to use that knowledge for criminal
  259. purposes. This does not make the hacker a criminal for figuring it
  260. out. And it certainly doesn't make the criminal into a hacker.
  261.  
  262.      It is easy to see this when we are talking about crimes that we
  263. understand as crimes. But then there are the more nebulous crimes; the
  264. ones where we have to ask ourselves: "Is this really a crime?" Copying
  265. software is one example. We all know that copying a computer program
  266. and then selling it is a crime. It's stealing, plain and simple. But
  267. copying a program from a friend to try it out on your home computer --
  268. is this the same kind of crime? It seems obvious to me that it is not,
  269. the reason being that you must make a leap of logic to turn such an
  270. action into a crime. Imagine if we were to charge a licensing fee
  271. every time somebody browsed through a magazine at the local bookshop,
  272. every time material was borrowed from a library, or every time a phone
  273. number was jotted down from the yellow pages. Yet, organizations like
  274. the Software Publishers Association have gone on record as saying that
  275. it is illegal to use the same computer program on more than one
  276. computer in your house. They claim that you must purchase it again or
  277. face the threat of federal marshalls kicking in your door. That is a
  278. leap of logic.
  279.  
  280.      It is a leap of logic to assume that because a word processor
  281. costs $500, a college student will not try to make a free copy in
  282. order to write and become a little more computer literate. Do we
  283. punish this student for breaking a rule? Do we charge him with
  284. stealing $500? To the hacker culture on whose behalf I am speaking
  285. today, the only sensible answer is to make it as easy as possible for
  286. that college student to use the software he needs. And while we're at
  287. it, we should be happy that he's interested in the first place.
  288.  
  289.      Of course, this represents a fundamental change in our society's
  290. outlook. Technology as a way of life, not just another way to make
  291. money. After all, we encourage people to read books even if they can't
  292. pay for them because to our society literacy is a very important goal.
  293. I believe technological literacy is becoming increasingly important.
  294. But you cannot have literacy of any kind without having access.
  295.  
  296.      If we continue to make access to technology difficult,
  297. bureaucratic, and illogical, then there will also be more computer
  298. crime. The reason being that if you treat someone like a criminal,
  299. they will begin to act like one. If we succeed in convincing people
  300. that copying a file is the same as physically stealing something, we
  301. can hardly be surprised when the broad-based definition results in
  302. more overall crime. Blurring the distinction between a virtual
  303. infraction and a real-life crime is a mistake.
  304.  
  305. LEGISLATION FOR COMPUTER AGE CRIME
  306.  
  307.      New laws are not needed because there is not a single crime that
  308. can be committed with a computer that is not already defined as a
  309. crime without a computer. But let us not be loose with that
  310. definition. Is mere unauthorized access to a computer worthy of
  311. federal indictments, lengthy court battles, confiscation of equipment,
  312. huge fines, and years of prison time? Or is it closer to a case of
  313. trespassing, which in the real world is usually punished by a simple
  314. warning? "Of course not," some will say, "since accessing a computer
  315. is far more sensitive than walking into an unlocked office building."
  316. If that is the case, why is it still so easy to do? If it's possible
  317. for somebody to easily gain unauthorized access to a computer that has
  318. information about me, I would like to know about it. But somehow I
  319. don't think the company or agency running the system would tell me
  320. that they have gaping security holes. Hackers, on the other hand, are
  321. very open about what they discover which is why large corporations
  322. hate them so much. Through legislation, we can turn what the hackers
  323. do into a crime and there just might be a slim chance that we can stop
  324. them. But that won't fix poorly designed systems whose very existence
  325. is a violation of our privacy.
  326.  
  327. THE DANGERS OF UNINFORMED CONSUMERS
  328.  
  329.      The concept of privacy is something that is very important to a
  330. hacker. This is so because hackers know how fragile privacy is in
  331. today's world. Wherever possible we encourage people to protect their
  332. directories, encrypt their electronic mail, not use cellular phones,
  333. and whatever else it takes to keep their lives to themselves. In 1984
  334. hackers were instrumental in showing the world how TRW kept credit
  335. files on millions of Americans. Most people had never even heard of a
  336. credit file until this happened.  Passwords were very poorly guarded -
  337. in fact, credit reports had the password printed on the credit report
  338. itself. More recently, hackers found that MCI's Friends and Family
  339. program allowed anybody to call an 800 number and find out the numbers
  340. of everyone in a customer's "calling circle". As a bonus, you could
  341. also find out how these numbers were related to the customer:  friend,
  342. brother, daughter-in-law, business partner, etc. Many times these
  343. numbers were unlisted yet all that was needed to "verify" the
  344. customer's identity was the correct zip code. In both the TRW and MCI
  345. cases, hackers were ironically accused of being the ones to invade
  346. privacy. What they really did was help to educate the American
  347. consumer.
  348.  
  349.      Nowhere is this more apparent than in the telephone industry.
  350. Throughout the country, telephone companies take advantage of
  351. consumers. They do this primarily because the consumer does not
  352. understand the technology. When we don't understand something
  353. complicated, we tend to believe those who do understand. The same is
  354. true for auto mechanics, plumbers, doctors, and lawyers. They all
  355. speak some strange language that the majority of us will never
  356. understand. So we tend to believe them. The difference with the phone
  357. companies, and here I am referring to the local companies, is that you
  358. cannot deal with somebody else if you happen to disagree with them or
  359. find them untrustworthy. The phone companies have us in a situation
  360. where we must believe what they say. If we don't believe them, we
  361. cannot go elsewhere.
  362.  
  363.      This is the frustration that the hacker community constantly
  364. faces. We face it especially because we are able to understand when
  365. the local phone companies take advantage of consumers. Here are a few
  366. examples:
  367.  
  368.      Charging a fee for touch tone service. This is a misnomer.  It
  369. actually takes extra effort to tell the computer to ignore the tones
  370. that you produce. Everybody already has touch tone capability but we
  371. are forced to pay the phone company not to block it. While $1.50 a
  372. month may not seem like much, when added together the local companies
  373. that still engage in this practice are making millions of dollars a
  374. year for absolutely nothing. Why do they get away with it? Because too
  375. many of us don't understand how the phone system works. I try to draw
  376. an analogy in this particular case - imagine if the phone company
  377. decided that a fee would be charged to those customers who wanted to
  378. use the number five when dialing. They could argue that the five takes
  379. more energy than the four but most of us would see through this flimsy
  380. logic. We must seek out other such dubious practices and not blindly
  381. accept what we are told.
  382.  
  383.      Other examples abound: being charged extra not to have your name
  384. listed in the telephone directory, a monthly maintenance charge if you
  385. select your own telephone number, the fact that calling information to
  386. get a number now costs more than calling the number itself.
  387.  
  388.      More recently, we have become acquainted with a new standard
  389. called Signalling System Seven or SS7. Through this system it is
  390. possible for telephones to have all kinds of new features: Caller ID,
  391. Return Call, Repeat Calling to get through a busy signal, and more.
  392. But again, we are having the wool pulled over our eyes. For instance,
  393. if you take advantage of Call Return in New York (which will call the
  394. last person who dialed your number), you are charged 75 cents on top
  395. of the cost of the call itself.  Obviously, there is a cost involved
  396. when new technologies are introduced. But there is no additional
  397. equipment, manpower, or time consumed when you dial *69 to return a
  398. call. It's a permanent part of the system. As a comparison, we could
  399. say that it also costs money to install a hold button. Imagine how we
  400. would feel if we were charged a fee every time we used it.
  401.  
  402.      The local companies are not the only offenders but it is
  403. particularly bad in their case because, for the vast majority of
  404. Americans, there is no competition on this level. The same complaints
  405. are being voiced concerning cable television companies.
  406.  
  407.      Long distance telephone companies are also guilty. AT&T, MCI, and
  408. Sprint all encourage the use of calling cards. Yet each imposes a
  409. formidable surcharge each and every time they're used.  AT&T, for
  410. example, charges 13 cents for the first minute of a nighttime call
  411. from Washington DC to New York plus an 80 cent surcharge. Since a
  412. calling card can only be used to make telephone calls, why are
  413. consumers expected to pay an extra fee as if they were doing something
  414. above and beyond the normal capability of the card? Again, there is no
  415. extra work necessary to complete a calling card call - at least not on
  416. the phone company's part. The consumer, on the other hand, must enter
  417. up to 25 additional digits. But billing is accomplished merely by
  418. computers sending data to each other. Gone are the days of tickets
  419. being written up by hand and verified by human beings.  Everything is
  420. accomplished quickly, efficiently, and cheaply by computer. Therefore,
  421. these extra charges are outdated.
  422.  
  423. SOCIAL INJUSTICES OF TECHNOLOGY
  424.  
  425.      The way in which we have allowed public telephones to be operated
  426. is particularly unfair to those who are economically disadvantaged. A
  427. one minute call to Washington DC can cost as little as 12 cents from
  428. the comfort of your own home. However, if you don't happen to have a
  429. phone, or if you don't happen to have a home, that same one minute
  430. call will cost you $2.20. That figure is the cheapest rate there is
  431. from a Bell operated payphone. With whatever kind of logic was used to
  432. set these prices, the results are clear. We have made it harder and
  433. more expensive for the poor among us to gain access to the telephone
  434. network. Surely this is not something we can be proud of.
  435.  
  436.      A direct result of this inequity is the prevalence of red boxes.
  437. Red boxes are nothing more than tone generators that transmit a quick
  438. burst of five tones which convince the central office that a quarter
  439. has been deposited. It's very easy and almost totally undetectable.
  440. It's also been going on for decades.  Neither the local nor long
  441. distance companies have expended much effort towards stopping red
  442. boxes, which gives the impression that the payphone profits are still
  443. lucrative, even with this abuse. But even more troubling is the
  444. message this is sending.  Think of it. For a poor and homeless person
  445. to gain access to something that would cost the rest of us 12 cents,
  446. they must commit a crime and steal $2.20. This is not equal access.
  447.  
  448. CORPORATE RULES
  449.  
  450.      Hackers and phone phreaks, as some of us are called, are very
  451. aware of these facts. We learn by asking lots of questions.  We learn
  452. by going to libraries and doing research. We learn by diving into
  453. phone company trash dumpsters, reading discarded material, and doing
  454. more research. But who will listen to people like us who have been
  455. frequently characterized as criminals? I am particularly grateful that
  456. this committee has chosen to hear us.  What is very important to us is
  457. open communications. Freedom of information. An educated public.
  458.  
  459.      This puts us at direct odds with many organizations, who believe
  460. that everything they do is "proprietary" and that the public has no
  461. right to know how the public networks work. In July of 1992 we were
  462. threatened with legal action by Bellcore (the research arm of the
  463. Regional Bell Operating Companies) for revealing security weaknesses
  464. inherent in Busy Line Verification (BLV) trunks. The information had
  465. been leaked to us and we did not feel compelled to join Bellcore's
  466. conspiracy of silence. In April of this year, we were threatened with
  467. legal action by AT&T for printing proprietary information of theirs.
  468. The information in question was a partial list of the addresses of
  469. AT&T offices.  It's very hard for us to imagine how such information
  470. could be considered secret. But these actions are not surprising. They
  471. only serve to illustrate the wide disparities between the corporate
  472. mindset and that of the individual. It is essential that the hundreds
  473. of millions of Americans who will be affected by today's
  474. all-encompassing inventions not be forced to play by corporate rules.
  475.  
  476.      In 1990 a magazine similar to 2600 was closed down by the United
  477. States government because Bell South said they printed proprietary
  478. information. Most people never found out about this because Phrack
  479. Magazine was electronic, i.e., only available on computer bulletin
  480. boards and networks. This in itself is wrong; a publication must have
  481. the same First Amendment rights regardless of whether it is printed
  482. electronically or on paper. As more online journals appear, this basic
  483. tenet will become increasingly critical to our nation's future as a
  484. democracy. Apart from this matter, we must look at what Bell South
  485. claimed - that a document discussing the Enhanced 911 system which was
  486. worth $79,449 had been "stolen" and printed by Phrack. (Some newspaper
  487. accounts even managed to change it into an E911 program which gave the
  488. appearance that hackers were actually interfering with the operation
  489. of an E911 system and putting lives at risk. In reality there has
  490. never been a report of a hacker gaining access to such a system.) It
  491. was not until after the publisher of Phrack was forced to go to trial
  492. that the real value of the document was revealed. Anyone could get a
  493. copy for around $14. The government promptly dropped its case against
  494. the publisher who, to this day, is still paying back $100,000 in legal
  495. fees. As further evidence of the inquity between individual justice
  496. and corporate justice, Bell South was never charged with fraud for its
  497. claim that a $14 document was worth nearly $80,000. Their logic, as
  498. explained in a memo to then Assistant U.S. Attorney Bill Cook, was
  499. that the full salaries of everyone who helped write the document, as
  500. well as the full cost of all hardware and software used in the
  501. endeavor ($31,000 for a Vaxstation II, $6,000 for a printer), was
  502. perfectly acceptable. It is very disturbing that the United States
  503. government agreed with this assessment and moved to put a pre-law
  504. student behind bars for violating corporate rules.
  505.  
  506. MISGUIDED AUTHORITY
  507.  
  508.      I wish I could stand before this committee and say that we have
  509. been successful in stopping all such miscarriages of justice. While
  510. the Phrack case may have been the most bizarre, there are many more
  511. instances of individuals being victimized in similar manners. A
  512. teenager in Chicago was jailed for a year for copying a file that was
  513. worth millions, according to AT&T, but was utterly worthless and
  514. unusable to a kid. A bulletin board operator in California, along with
  515. his entire family, was held at gunpoint for hours while authorities
  516. seized his equipment in an unsuccessful attempt to find child
  517. pornography. Three hackers in Atlanta, after being imprisoned up to a
  518. year for dialing into a Bell South computer system that had no
  519. password, were forced to pay $233,000 in restitution so the company
  520. could install a password system. More recently, a student at the
  521. University of Texas at Houston was suspended from school for a year
  522. because he accessed a file that merely listed the users of the system
  523. (a file which the system allows all users to access). In increasing
  524. numbers, young people are being sent to jail, not necessarily for
  525. something they did, but rather for something they could have done in a
  526. worst-case scenario. Again this indicates fear and misunderstanding of
  527. technology and its applications. But this time those feelings emanate
  528. from those in authority.
  529.  
  530.      Locally, an ominous happening occurred at a 2600 monthly meeting
  531. last November. (These meetings occur in public areas in cities
  532. throughout the nation on the first Friday of every month.) Shortly
  533. after it began, the Washington meeting was broken up by Pentagon City
  534. Mall security guards. Without any provocation, people were forced to
  535. submit to searches and everybody's name was taken down. One of the
  536. attendees who was writing down an officer's name had the paper ripped
  537. from his hand, another had his film taken from his camera as he tried
  538. to document what was going on. Upon questioning by a reporter from
  539. Communications Daily, the mall security chief claimed that he was
  540. acting under orders from the United States Secret Service. Subsequent
  541. Freedom of Information Act requests by Computer Professionals for
  542. Social Responsibility have yielded more evidence implicating the
  543. Secret Service in this illegal and unwarranted action. Nothing of a
  544. criminal nature was ever found in any of the bags that were searched.
  545. But a full list of the attendees wound up in the possession of the
  546. Secret Service. It seems ironic that while hackers are conducting an
  547. open gathering in the middle of a shopping mall in order to share
  548. knowledge and welcome new people, agents of the Secret Service are
  549. lurking in the shadows trying to figure out ways to stop them.
  550.  
  551.      How can we move forward and talk about exciting new applications
  552. of technology when we're off to such a bad start?  The people that are
  553. being arrested, harassed, and intimidated are the people who will be
  554. designing and running these new systems. They are the ones who will
  555. appreciate their capabilities and understand their weaknesses. Through
  556. our short-sightedness and eagerness to listen to the loudest voices,
  557. we are alienating the promises of the future. How many here, who grew
  558. up in decades past, remember hearing teenagers talk of how the
  559. government is after them, watching their every move, listening to
  560. their phone calls, doing everything one might expect in a totalitarian
  561. regime. Such feelings are the sure sign of an ailing society. It does
  562. not matter if these things are not actually occurring - their mere
  563. perception is enough to cause lasting harm and mistrust.
  564.  
  565. PROMISE OF THE INTERNET
  566.  
  567.      The future holds such enormous potential. It is vital that we not
  568. succumb to our fears and allow our democratic ideals and privacy
  569. values to be shattered. In many ways, the world of cyberspace is more
  570. real than the real world itself. I say this because it is only within
  571. the virtual world that people are really free to be themselves - to
  572. speak without fear of reprisal, to be anonymous if they so choose, to
  573. participate in a dialogue where one is judged by the merits of their
  574. words, not the color of their skin or the timbre of their voice.
  575. Contrast this to our existing "real" world where we often have people
  576. sized up before they even utter a word. The Internet has evolved, on
  577. its own volition, to become a true bastion of worldwide democracy. It
  578. is the obligation of this committee, and of governments throughout the
  579. world, not to stand in its way.
  580.  
  581.      This does not mean we should stand back and do nothing.  Quite
  582. the contrary, there is much we have to do if accessibility and
  583. equality are our goals. Over-regulation and commercialization are two
  584. ways to quickly kill these goals. A way to realize them is to have a
  585. network access point in every house. Currently, network access is
  586. restricted to students or professors at participating schools,
  587. scientists, commercial establishments, and those who have access to,
  588. and can afford, local services that link into the Internet. Yes, a lot
  589. of people have access today.  But a far greater number do not and it
  590. is to these people that we must speak. The bigger the Internet gets,
  591. the better it gets. As it exists today, cultures from around the globe
  592. are represented; information of all kinds is exchanged. People are
  593. writing, reading, thinking. It's potentially the greatest educational
  594. tool we have. Therefore, it is essential that we not allow it to
  595. become a commodity that only certain people in society will be able to
  596. afford. With today's technology, we face the danger of widening the
  597. gap between the haves and the have-nots to a monumental level. Or we
  598. can open the door and discover that people really do have a lot to
  599. learn from each other, given the opportunity.
  600.  
  601.      It is my hope that this committee will recognize the importance
  602. of dialogue with the American public, in order to answer the questions
  603. so many are asking and to address the concerns that have been
  604. overlooked. I thank you for this opportunity to express those issues
  605. that I feel relevant to this hearing.
  606.  
  607. ------------------------------
  608.  
  609. Date:         Sat, 12 Jun 1993 12:30:38 EST
  610. From:         Dave Banisar <banisar@WASHOFC.CPSR.ORG>
  611. Subject: File 2--CPSR Clipper Testimony (6-9-93) in House Subcommittee
  612.  
  613.   CPSR Clipper Testimony 6/9
  614.  
  615.         On June 9, 1993, Congressman Edward Markey, Chairman of the
  616. House  Subcommittee on Telecommunications and Finance held an
  617. oversight hearing on Rencryption and telecommunications network
  618. security. Panelists were Whitfield Diffie of Sun Microsystems, Dr.
  619. Dorothy Denning,  Steven Bryen of Secure Communications, Marc
  620. Rotenberg of the CPSR Washington Office and E.R. Kerkeslager of AT&T.
  621.  
  622.         Congressman Markey, after hearing the testimony presented,
  623. noted that the Clipper proposal had raised an arched eyebrow among
  624. the whole committeeS and that the committee viewed the proposal
  625. skeptically. This statement was the latest indication that the Clipper
  626. proposal has not been well received by policy makers.  Last Friday,
  627. the Computer Systems Security and Privacy Advisory Board of NIST
  628. issued two resolutions critical of the encryption plan, suggesting
  629. that further study was required and that implementation of the plan
  630. should be delayed until the review is completed.
  631.  
  632.         At the Third CPSR Cryptography and Privacy Conference on
  633. Monday, June 7, the Acting Director of NIST, Raymond Kammer, announced
  634. that the implementation of the proposal will be delayed and that a
  635. more comprehensive review will be undertaken.  The review is due in
  636. the fall.  Kammer told the Washington Post that Rmaybe we wonUt
  637. continue in the direction we started ous.
  638.  
  639. +-------------------------------------------------
  640.  
  641.                           Prepared Testimony
  642.                                  and
  643.                        Statement for the Record
  644.                                   of
  645.                         Marc Rotenberg, director
  646.                          CPSR Washington Office
  647.                                   on
  648.                    Encryption Technology and Policy
  649.                                 Before
  650.             The Subcommittee on Telecommunications and Finance.
  651.                    Committee on Energy and Commerce
  652.  
  653.                         U.S. House of Representatives
  654.                                June 9, 1993
  655.  
  656. SUMMARY
  657.  
  658.         The cryptography issue is of particular concern to CPSR.
  659. During the past several years CPSR has pursued an extensive study of
  660. cryptography policy in the United States.  CPSR has organized public
  661. conferences, conducted litigation under the Freedom of Information Act,
  662. and has emphasized the importance of cryptography for privacy
  663. protection and the need to scrutinize carefully government proposals
  664. designed to limit the use of this technology.
  665.         To evaluate the Clipper proposal it is necessary to look at a
  666. 1987 law, the Computer Security Act, which made clear that in the area
  667. of unclassified computing systems, the National Institute of Standards
  668. and Technology (NIST) and not the National Security Agency (NSA), would
  669. be responsible for the development of technical standards.  The Act
  670. emphasized public accountability and stressed open decision-making.
  671.         In the spirit of the Act, in 1989 NIST set out to develop a
  672. public key cryptography standard.  According to documents obtained by
  673. CPSR through the Freedom of Information Act, NIST recommended that the
  674. algorithm be "public, unclassified, implementable in both hardware or
  675. software, usable by federal Agencies and U.S. based multi-national
  676. corporation." However, the Clipper proposal and the full-blown Capstone
  677. configuration that resulted is very different: the Clipper algorithm,
  678. Skipjack, is classified; public access to the reasons underlying the
  679. proposal is restricted; Skipjack can be implemented only in
  680. tamper-proof hardware; it is unlikely to be used by multi-national
  681. corporations, and the security of Clipper remains unproven.
  682.         The Clipper proposal undermines the central purpose of the
  683. Computer Security Act.  Although intended for broad use in commercial
  684. networks, it was not developed at the request of either U.S. business
  685. or the general public.  It does not reflect public goals.
  686.         The premise of the Clipper key escrow arrangement is that the
  687. government must have the ability to intercept electronic
  688. communications.  However, there is no legal basis to support this
  689. premise. In law there is nothing inherently illegal or suspect about
  690. the use of a telephone.  The federal wiretap statute says only that
  691. communication service providers must assist law enforcement execute a
  692. lawful warrant.
  693.         CPSR supports the review of cryptography policy currently
  694. underway at the Department of Commerce.  CPSR also supports the efforts
  695. undertaken by the Subcommittee on Telecommunications and Finance to
  696. study the full ramifications of the Clipper proposal.  However, we are
  697. not pleased about the review now being undertaken at the White House.
  698. That effort has led to a series of secret meetings, has asked that
  699. scientists sign non-disclosure agreements and accept restrictions on
  700. publication, and has attempted to resolve public concerns through
  701. private channels.  This is not a good process for the evaluation of a
  702. technology that is proposed for the public switched network.
  703.         Even if the issues regarding Clipper are resolved favorably,
  704. privacy concerns will not go away. Rules still need to be developed
  705. about the collection and use of transactional data generated by
  706. computer communications.  Several specific steps should be taken.
  707. First, the FCC should be given a broad mandate to pursue privacy
  708. concerns.  Second, current gaps in the communications law should be
  709. filled.  The protection of transactional records is particularly
  710. important.  Third, telecommunications companies should be encouraged to
  711. explore innovative ways to protect privacy.  "Telephone cards", widely
  712. available in other countries, are an ideal way to protect privacy.
  713.  
  714.  
  715. TESTIMONY
  716.  
  717.         Mr. Chairman, members of the Subcommittee, thank you for the
  718. opportunity to testify today on encryption policy and the Clipper
  719. proposal.  I especially wish to thank you Congressman Markey, on behalf
  720. of CPSR, for your ongoing efforts on the privacy front as well as your
  721. work to promote public access to electronic information.
  722.         The cryptography issue is of particular concern to CPSR.
  723. During the past several years we have pursued an extensive study of
  724. cryptography policy in the United States.  We have organized several
  725. public conferences, conducted litigation under the Freedom of
  726. Information Act, and appeared on a number of panels to discuss the
  727. importance of cryptography for privacy protection and the need to
  728. scrutinize carefully government proposals designed to limit the use of
  729. this technology.
  730.         While we do not represent any particular computer company or
  731. trade association we do speak for a great many people in the computer
  732. profession who value privacy and are concerned about the government's
  733. Clipper initiative.
  734.         Today I will briefly summarize our assessment of the Clipper
  735. proposal.  Then I would like to say a few words about the current
  736. status of privacy protection.
  737.  
  738. CLIPPER
  739.         To put the Clipper proposal in a policy context, I will need to
  740. briefly to describe a law passed in 1987 intended to address the roles
  741. of the Department of Commerce and the Department of Defense in the
  742. development of technical standards.  The Computer Security Act of 1987
  743. was enacted to improve computer security in the federal government, to
  744. clarify the responsibilities of the National Institute of Standards and
  745. Technology (NIST) and the National Security Agency, and to ensure that
  746. technical standards would serve civilian and commercial needs.
  747.         The law made clear that in the area of unclassified computing
  748. systems, NIST and not NSA, would be responsible for the development of
  749. technical standards.  It emphasized public accountability and stressed
  750. open decision-making.  The Computer Security Act also established the
  751. Computer System Security and Privacy Advisory Board (CSSPAB), charged
  752. with reviewing the activities of NIST and ensuring that the mandate of
  753. the law was enforced.
  754.         The Computer Security Act grew out of a concern that classified
  755. standards and secret meetings would not serve the interests of the
  756. general public.  As the practical applications for cryptography have
  757. moved from the military and intelligence arenas to the commercial
  758. sphere, this point has become clear.  There is also clearly a conflict
  759. of interest when an agency tasked with signal interception is also
  760. given authority to develop standards for network security.
  761.         In the spirit of the Computer Security Act, NIST set out in
  762. 1989 to develop a public key standard FIPS (Federal Information
  763. Processing Standard).  In a memo dated May 5, 1989, obtained by CPSR
  764. through the Freedom of Information Act, NIST said that it planned:
  765.  
  766. to develop the necessary public-key based security standards.  We
  767. require a public-key algorithm for calculating digital signatures and
  768. we also require a public-key algorithm for distributing secret keys.
  769.  
  770. NIST then went on to define the requirements of the standard:
  771.  
  772. The algorithms that we use must be public, unclassified, implementable
  773. in both hardware or software, usable by federal Agencies and U.S. based
  774. multi-national corporation, and must provide a level of security
  775. sufficient for the protection of unclassified, sensitive information
  776. and commercial propriety and/or valuable information.
  777.  
  778.         The Clipper proposal and the full-blown Capstone configuration,
  779. which incorporates the key management function NIST set out to develop
  780. in 1989, is very different from the one originally conceived by NIST.
  781.  
  782. %       The Clipper algorithm, Skipjack, is classified,
  783. %       Public access to the reasons underlying the proposal is
  784. restricted,
  785. %       Skipjack can be implemented only in tamper-proof hardware,
  786. %       It is Unlikely to be used by multi-national corporations, and
  787. %       The security of Clipper remains unproven.
  788.  
  789.         The Clipper proposal undermines the central purpose of the
  790. Computer Security Act.  Although intended for broad use in commercial
  791. networks, it was not developed at the request of either U.S. business
  792. or the general public.  It does not reflect public goals.  Rather it
  793. reflects the interests of one secret agency with the authority to
  794. conduct foreign signal intelligence and another government agency
  795. responsible for law enforcement investigations.
  796.         Documents obtained by CPSR through the Freedom of Information
  797. Act indicate that the National Security Agency dominated the meetings
  798. of the joint NIST/NSA Technical Working group which made
  799. recommendations to NIST regarding public key cryptography, and that a
  800. related technical standard for message authentication, the Digital
  801. Signature Standard, clearly reflected the interests of the NSA.
  802.         We are still trying to determine the precise role of the NSA in
  803. the development of the Clipper proposal.  We would be pleased to
  804. provide to the Subcommittee whatever materials we obtain.
  805.  
  806. LEGAL AND POLICY ISSUES
  807.         There are also several legal and constitutional issues raised
  808. by the government's key escrow proposal.  The premise of the Clipper
  809. key escrow arrangement is that the government must have the ability to
  810. intercept electronic communications, regardless of the economic or
  811. societal costs.  The FBI's Digital Telephony proposal, and the earlier
  812. Senate bill 266, were based on the same assumption.
  813.         There are a number of arguments made in defense of this
  814. position: that privacy rights and law enforcement needs must be
  815. balanced, or that the government will be unable to conduct criminal
  816. investigations without this capability.
  817.         Regardless of how one views these various claims, there is one
  818. point about the law that should be made very clear: currently there is
  819. no legal basis -- in statute, the Constitution or anywhere else --
  820. that supports the premise which underlies the Clipper proposal.  As the
  821. law currently stands, surveillance is not a design goal.  General
  822. Motors would have a stronger legal basis for building cars that could
  823. go no faster than 65 miles per hour than AT&T does in marketing a
  824. commercial telephone that has a built-in wiretap capability.  In law
  825. there is simply nothing about the use of a telephone that is inherently
  826. illegal or suspect.
  827.         The federal wiretap statute says only that communication
  828. service providers must assist law enforcement in the execution of a
  829. lawful warrant.  It does not say that anyone is obligated to design
  830. systems to facilitate future wire surveillance.  That distinction is
  831. the difference between countries that restrict wire surveillance to
  832. narrow circumstances defined in law and those that treat all users of
  833. the telephone network as potential criminals.  U.S. law takes the first
  834. approach.  Countries such as the former East Germany took the second
  835. approach.  The use of the phone system by citizens was considered
  836. inherently suspect and for that reason more than 10,000 people were
  837. employed by the East German government to listen in on telephone calls.
  838.         It is precisely because the wiretap statute does not contain
  839. the obligation to incorporate surveillance capability -- the design
  840. premise of the Clipper proposal -- that the Federal Bureau of
  841. Investigation introduced the Digital Telephony legislation.  But that
  842. legislation has not moved forward and the law has remained unchanged.
  843. The Clipper proposal attempts to accomplish through the
  844. standard-setting and procurement process what the Congress has been
  845. unwilling to do through the legislative process.
  846.         On legal grounds, adopting the Clipper would be a mistake.
  847. There is an important policy goal underlying the wiretap law.  The
  848. Fourth Amendment and the federal wiretap statute do not so much balance
  849. competing interests as they erect barriers against government excess
  850. and define the proper scope of criminal investigation.  The purpose of
  851. the federal wiretap law is to restrict the government, it is not to
  852. coerce the public.
  853.         Therefore, if the government endorses the Clipper proposal, it
  854. will undermine the basic philosophy of the federal wiretap law and the
  855. fundamental values embodied in the Constitution.  It will establish a
  856. technical mechanism for signal interception based on a premise that has
  857. no legal foundation.  The assumption underlying the Clipper proposal is
  858. more compatible with the practice of telephone surveillance in the
  859. former East Germany than it is with the narrowly limited circumstances
  860. that wire surveillance has been allowed in the United States.
  861.  
  862. UNANSWERED QUESTIONS
  863.         There are a number of other legal issues that have not been
  864. adequately considered by the proponents of the key escrow arrangement
  865. that the Subcommittee should examine.  First, not all lawful wiretaps
  866. follow a normal warrant process.  The proponents of Clipper should make
  867. clear how emergency wiretaps will be conducted before the proposal goes
  868. forward.  Second, there may be civil liability issues for the escrow
  869. agents, if they are private parties, if there is abuse or compromise of
  870. the keys.  Third, there is a Fifth Amendment dimension to the proposed
  871. escrow key arrangement if a network user is compelled to disclose his
  872. or her key to the government in order to access a communications
  873. network. Each one of these issues should be examined carefully.
  874.  
  875.  
  876. CPSR CONFERENCE
  877.         At a conference organized by CPSR this week at the Carnegie
  878. Endowment for International Peace we heard presentations from staff
  879. members at NIST, FBI, NSA and the White House about the Clipper
  880. proposal.  The participants at the meeting had the opportunity to ask
  881. questions and to exchange views.
  882.         Certain points now seem clear:
  883.  
  884. %       The Clipper proposal was not developed in response to any
  885. perceived public or business need.  It was developed solely to address
  886. a law enforcement concern.
  887. %       Wire surveillance remains a small part of law enforcement
  888. investigations.  The number of arrests resulting from wiretaps has
  889. remained essentially unchanged since the federal wiretap law was enacted
  890. in 1968.
  891. %       The potential risks of the Clipper proposal have not been
  892. assessed and many questions about the implementation remain unanswered.
  893. %       Clipper does not appear to have the support of the business or
  894. research community.
  895.  
  896.         Many comments on the Clipper proposal, both positive and
  897. negative as well the materials obtained by CPSR through the Freedom of
  898. Information Act, are contained in the Source book compiled by CPSR for
  899. the recent conference.  I am please to make a copy of this available to
  900. the Subcommittee.
  901.  
  902.  
  903. NETWORK PRIVACY PROTECTION
  904.         Communications privacy remains a critical test for network
  905. development.  Networks that do not provide a high degree of privacy are
  906. clearly less useful to network users.  Given the choice between a
  907. cryptography product without a key escrow and one with a key escrow, it
  908. would be difficult to find a user who would prefer the key escrow
  909. requirement.  If this proposal does go forward, it will not be because
  910. network users or commercial service providers favored it.
  911.         Even if the issues regarding the Clipper are resolved
  912. favorably, privacy concerns will not go away.  Cryptography is a part
  913. of communications privacy, but it is only a small part.  Rules still
  914. need to be developed about the collection and use of transactional data
  915. generated by computer communications.  While the federal wiretap law
  916. generally does a very good job of protecting the content of
  917. communications against interception by government agencies, large holes
  918. still remain.  The extensive use of subpoenas by the government to
  919. obtain toll records and the sale of telephone records by private
  920. companies are just two examples of gaps in current law.
  921.         The enforcement of privacy laws is also a particularly serious
  922. concern in the United States.  Good laws without clear mechanisms for
  923. enforcement raise over-arching questions about the adequacy of legal
  924. protections in this country.  This problem is known to those who have
  925. followed developments with the Privacy Act since passage in 1974 and
  926. the more recent Video Privacy and Protection Act of 1988.  I make this
  927. point because it has been the experience in other countries that
  928. agencies charged with the responsibility for privacy protection can be
  929. effective advocates for the public in the protection of personal
  930. privacy.
  931.  
  932. RECOMMENDATIONS
  933.         Regarding the Clipper proposal, we believe that the national
  934. review currently underway by the Computer Security and Privacy Advisory
  935. Board at the Department of Commerce will be extremely useful and we
  936. look forward to the results of that effort.  The Panel has already
  937. conducted a series of important open hearings and compiled useful
  938. materials on Clipper and cryptography policy for public review.
  939.         We are also pleased that the Subcommittee on Telecommunications
  940. and Finance has undertaken this hearing.  This Subcommittee can play a
  941. particularly important role in the resolution of these issues.  We also
  942. appreciate the Chairman's efforts to ensure that the proper studies are
  943. undertaken, that the General Accounting Office fully explores these
  944. issues, and that the Secretary of Commerce carefully assesses the
  945. potential impact of the Clipper proposal on export policy.
  946.         We are, however, less pleased about the White House study
  947. currently underway.  That effort, organized in large part by the
  948. National Security Council, has led to a series of secret meetings, has
  949. asked that scientists sign non-disclosure agreements and accept
  950. restrictions on publication, and has attempted to resolve public
  951. concerns through private channels.  This is not a good process for the
  952. evaluation of a technology that is proposed for the public switched
  953. network.  While we acknowledge that the White House has been reasonably
  954. forthcoming in explaining the current state of affairs, we do not think
  955. that this process is a good one.
  956.         For these reasons, we believe that the White House should
  957. properly defer to the recommendations of the Computer System Security
  958. and Privacy Advisory Board and the Subcommittee on Telecommunications
  959. and Finance.  We hope that no further steps in support of the Clipper
  960. initiative will be taken.  We specifically recommend that no further
  961. purchase of Clipper chips be approved.
  962.         Speaking more generally, we believe that a number of steps
  963. could be taken to ensure that future communications initiatives could
  964. properly be viewed as a boost to privacy and not a set-back.
  965.  
  966. %       The FCC must be given a strong mandate to pursue privacy
  967. concerns.  There should be an office specifically established to
  968. examine privacy issues and to prepare reports.  Similar efforts in
  969. other countries have been enormously successful.  The Japanese Ministry
  970. of Post and Telecommunications developed a set of privacy principles to
  971. ensure continued trade with Europe.  The Canada Ministry of
  972. Communications developed a set of communications principles to address
  973. public concerns about the privacy of cellular communications.  In
  974. Europe, the EC put forward an important directive on privacy protection
  975. for the development of new network services.
  976.  
  977. %       Current gaps in the communications law should be filled.  The
  978. protection of transactional records is particularly important.
  979. Legislation is needed to limit law enforcement access to toll record
  980. information and to restrict the sale of data generated by the use of
  981. telecommunication services.  As the network becomes digital, the
  982. transaction records associated with a particular communication may
  983. become more valuable than the content of the communication itself.
  984.  
  985. %       Telecommunications companies should be encouraged to explore
  986. innovative ways to protect privacy.  Cryptography is a particular
  987. method to seal electronic communications, but far more important for
  988. routine communications could be anonymous telephone cards, similar to
  989. the metro cards here in the District of Columbia, that allow consumers
  990. to purchase services without establishing accounts, transferring
  991. personal data, or recording personal activities.  Such cards are widely
  992. available in Europe, Japan, and Australia.
  993.  
  994.         I thank you very much for the opportunity to appear before the
  995. Subcommittee and would be pleased to answer your questions Computer
  996. Professionals for Social Responsibility
  997.  
  998.         CPSR is a national membership organization, established in
  999. 1982, to address the social impact of computer technology.  There are
  1000. 2,500 members in 20 chapters across the United States, and offices in
  1001. Palo Alto, California, Cambridge, Massachusetts, and Washington DC. The
  1002. organization is governed by a board of elected officers and meetings
  1003. are open to the public.  CPSR sponsors an annual meeting and the
  1004. biennial conference on Directions and Implications of Advanced
  1005. Computing.  CPSR sponsored the first conference on Computers, Freedom,
  1006. and Privacy in 1991.  CPSR also operates the Internet Library at
  1007. cpsr.org.  The library contains documents from the White House on
  1008. technology policy and a wide range of public laws covering privacy,
  1009. access to information, and communications law and is available free of
  1010. charge to all users of the Internet.
  1011.  
  1012.         Marc Rotenberg is the director of the CPSR Washington office
  1013. and an adjunct professor at Georgetown University Law Center.  He is
  1014. chairman of the ACM Committee on Scientific Freedom and Human Rights,
  1015. an editor for the Computer Law and Security Report (London), and the
  1016. secretary of Privacy International, an organization of human rights
  1017. advocates and privacy scholars in forty countries.  He received an A.B.
  1018. from Harvard College and a J.D. from Stanford Law School, and is a
  1019. member of the bar of the United States Supreme Court.  His forthcoming
  1020. article "Communications Privacy: Implications for Network Design" will
  1021. appear in the August 1993 issue of Communications o0f the ACM.
  1022.  
  1023. ------------------------------
  1024.  
  1025. End of Computer Underground Digest #5.43
  1026. ************************************
  1027.  
  1028. -/Vuarnet International/-
  1029.       617/527.oo91
  1030.   24oo-16.8k HST/V32bis
  1031.