home *** CD-ROM | disk | FTP | other *** search
/ The Devil's Doorknob BBS Capture (1996-2003) / devilsdoorknobbbscapture1996-2003.iso / Dloads / TEXTFILE / CUD630.ZIP / CUD630.TXT
Text File  |  1994-04-12  |  58KB  |  974 lines

  1.  
  2. Computer underground Digest    Wed  Apr 06, 1994   Volume 6 : Issue 30
  3.                            ISSN  1004-042X
  4.  
  5.        Editors: Jim Thomas and Gordon Meyer (TK0JUT2@NIU.BITNET)
  6.        Archivist: Brendan Kehoe (He's Baaaack)
  7.        Acting Archivist: Stanton McCandlish
  8.        Shadow-Archivists: Dan Carosone / Paul Southworth
  9.                           Ralph Sims / Jyrki Kuoppala
  10.                           Ian Dickinson
  11.         Suspercollater:       Shrdlu Nooseman
  12.  
  13. CONTENTS, #6.30 (Apr 06, 1994)
  14. File 1--"Who Holds the Keys?" (CFP '94 Transcript)
  15.  
  16. Cu-Digest is a weekly electronic journal/newsletter. Subscriptions are
  17. available at no cost electronically.
  18.  
  19. CuD is available as a Usenet newsgroup: comp.society.cu-digest
  20.  
  21. Or, to subscribe, send a one-line message:  SUB CUDIGEST  your name
  22. Send it to LISTSERV@UIUCVMD.BITNET or LISTSERV@VMD.CSO.UIUC.EDU
  23. The editors may be contacted by voice (815-753-0303), fax (815-753-6302)
  24. or U.S. mail at:  Jim Thomas, Department of Sociology, NIU, DeKalb, IL
  25. 60115, USA.
  26.  
  27. Issues of CuD can also be found in the Usenet comp.society.cu-digest
  28. news group; on CompuServe in DL0 and DL4 of the IBMBBS SIG, DL1 of
  29. LAWSIG, and DL1 of TELECOM; on GEnie in the PF*NPC RT
  30. libraries and in the VIRUS/SECURITY library; from America Online in
  31. the PC Telecom forum under "computing newsletters;"
  32. On Delphi in the General Discussion database of the Internet SIG;
  33. on RIPCO BBS (312) 528-5020 (and via Ripco on  internet);
  34. and on Rune Stone BBS (IIRGWHQ) (203) 832-8441.
  35. CuD is also available via Fidonet File Request from
  36. 1:11/70; unlisted nodes and points welcome.
  37.  
  38. EUROPE:   from the ComNet in LUXEMBOURG BBS (++352) 466893;
  39.           In ITALY: Bits against the Empire BBS: +39-461-980493
  40.  
  41. FTP:   UNITED STATES:  etext.archive.umich.edu (141.211.164.18)  in /pub/CuD/
  42.                        aql.gatech.edu (128.61.10.53) in /pub/eff/cud/
  43.   EUROPE:         nic.funet.fi in pub/doc/cud/ (Finland)
  44.                   nic.funet.fi
  45.                   ftp.warwick.ac.uk in pub/cud/ (United Kingdom)
  46.  
  47. COMPUTER UNDERGROUND DIGEST is an open forum dedicated to sharing
  48. information among computerists and to the presentation and debate of
  49. diverse views.  CuD material may  be reprinted for non-profit as long
  50. as the source is cited. Authors hold a presumptive copyright, and
  51. they should be contacted for reprint permission.  It is assumed that
  52. non-personal mail to the moderators may be reprinted unless otherwise
  53. specified.  Readers are encouraged to submit reasoned articles
  54. relating to computer culture and communication.  Articles are
  55. preferred to short responses.  Please avoid quoting previous posts
  56. unless absolutely necessary.
  57.  
  58. DISCLAIMER: The views represented herein do not necessarily represent
  59.             the views of the moderators. Digest contributors assume all
  60.             responsibility for ensuring that articles submitted do not
  61.             violate copyright protections.
  62.  
  63. ----------------------------------------------------------------------
  64.  
  65. Date: Sun, 27 Mar 1994 22:09:47 -0800
  66. From: fen@IMAGINE.COMEDIA.COM(Fen Labalme)
  67. Subject: File 1--"Who Holds the Keys?" (CFP '94 Transcript)
  68.  
  69. ((MODERATORS' NOTE: Over the next few weeks, we'll try to include
  70. occasional summaries or transcripts of CPSR '94 sessions as they
  71. become available))
  72.  
  73.                           Transcript of
  74.  
  75.           DATA ENCRYPTION:  WHO HOLDS THE KEYS? (Panel)
  76.    at the Fourth Conference on Computers, Freedom and Privacy
  77.  
  78.                 Chicago, Illinois, March 24, 1994
  79.  
  80. This is a verbatim transcript of the session on "Data Encryption;
  81. Who Holds the Keys?" held at the Fourth Conference on Computers,
  82. Freedom and Privacy in Chicago on March 24, 1994.  The
  83. transcription was done by an independent local transcription
  84. agency.  Light editing was done by CFP volunteers to resolve items
  85. the agency could not be expected to have knowledge of (for example,
  86. "technical" terms like "PGP").  "Did X *really* say U?" questions
  87. can always be resolved by listening to the audiotape available as
  88. tape JM414 from Teach'Em, 160 East Illinois St, Chicago, IL 60611,
  89. 1-800-225-3775, for $10 + $1 ($2 outside US) shipping and handling
  90. + 8.75% sales tax.
  91.  
  92. =================================================================
  93.  
  94.                               Welcome to this program from the John
  95. Marshall Law School's fourth conference on computers, freedom and
  96. privacy entitled, "Cyberspace Superhighways:  Access, Ethics &
  97. Control", held March 23rd through the 26th, 1994 at the Chicago
  98. Palmer House Hilton.
  99.                               On this cassette you will hear Data
  100. Encrytion -- who holds the keys?  Now to our program.
  101.  
  102. BOB SMITH                     Willis Ware originally had been
  103. slated to being moderator for this panel and Willis had a problem
  104. and could not be with us and Robert Ellis Smith has agreed to fill
  105. in and use his technology background to fill in for Willis.  It
  106. will take just a minute while we disengage from the T.V. hookup and
  107. get back to the modern overhead projector.
  108.                               My name is Bob Smith.  I publish
  109. privacy journal and actually I am moderating because Dave Banisar
  110. did not want to be moderator.  We will hear from the three
  111. panelists with about three ten-minute presentations and then we
  112. will open it up to questions.
  113.                               The three ground rules for this
  114. session:  First, there will be no expansions of the metaphor of
  115. highways.  We will not talk about highway metaphors for the next
  116. hour.  Secondly, we will not accept as a defense that this issue is
  117. too sensitive or too complicated for us to understand and that we
  118. have to trust the government.  And thirdly, a rule that I hope you
  119. will make work.  If you hear a point of jargon or a point of
  120. technology that you don't understand,  explanation -- not policy
  121. disputes but if there is something you don't understand feel free
  122. to raise your hand as a point of order.  And if you can say it in
  123. ten words or less like, I don't understand, we'll get you an
  124. answer.
  125.                               I think Senator Leahy provided a good
  126. primer for cryptography and so I won't bother with that and we'll
  127. get right into the nuts and bolts of this issue.
  128.                               Our speakers are George Davida, who
  129. is with the University of Wisconsin in Milwaukee and has been
  130. involved in cryptography research for many years and was one of the
  131. first academicians to feel the heavy hand of government in the
  132. 1980's in its effort to try to curtail research into cryptography.
  133. That appears to be happening again in the 1990's so perhaps
  134. Professor Davida can tell us something about his experiences
  135. earlier on that same front.
  136.                               Our second speaker will be Stuart
  137. Baker, who is General Counsel of the National Security Agency.  He
  138. was a lawyer in private practice in Washington before joining NSA
  139. and one of the things he promised to do is to tell us exactly what
  140. NSA does and is because a lot of people don't know.  It is
  141. different from the National Security Council by the way.
  142.                               Thirdly, our third speaker will be
  143. David Banisar who is the Computer Professionals for Social
  144. Responsibility office in Washington.  He is trained as a lawyer and
  145. has a background in computer science and has some strong feelings
  146. about the cryptography debate.
  147.                               We will now move to Professor Davida.
  148. PROFESSOR DAVIDA              I would like to talk about two issues
  149. that concern me and I believe a number of people here.  By the way,
  150. I brought some copies of my paper in case you need one today.  And
  151. if I don't have enough you can always write to me at that address.
  152. And I am also willing to put that on FTP for those of you who are
  153. on Internet and you can pick up a poster file and print it if you
  154. so wish.
  155.                               As Robert said, in 1978 I had an
  156. interesting experience with NFA.  I was doing research at the time
  157. in cryptograhy and one day I received a secrecy order by mail.  It
  158. was more or less like a postcard telling me that under the penalty
  159. of three years in jail and $10,000 fine I am to talk to no one
  160. about what I had done in that paper without reference to any
  161. classified material.
  162.                               At first my graduate student and I
  163. laughed until we found out that it was deadly serious.  We talked
  164. to the Chancelor about it and he said, no way because in Wisconsin
  165. there is a strong position of academic freedom and we are not
  166. allowed actually to conduct research that's secret.  So we decided
  167. to resist the order and after a number of conversations between the
  168. Chancelor and someone you might have heard about recently again,
  169. Admiral Bobby Inman, and the then Commerce Secretary Juanita Kreps,
  170. the order was lifted.  But not before Admiral Inman tried to
  171. convince the Chancelor that he should acquiesce to the order and
  172. allow us to stay, but I am happy to say that the Chancelor said
  173. that we could not put up with the order.
  174.                               Shortly thereafter a group was formed
  175. by the American Council on Education called Public Cryptography
  176. Study Group, not to be confused with Public Key Cryptosystems.  And
  177. it is interesting that this group considered model legislation for
  178. censorship at first.  I objected to it rather vigorously and when
  179. the press began to get involved in covering the meetings, they then
  180. approved what they called voluntary prior restraint.  I again
  181. dissented from that report and the rest, as they say, is history.
  182.                               Many people have asked, "why do you
  183. oppose restaints?"  Very simply, that privacy is just too important
  184. to leave it just to agencies like NSA.  I also felt that the ACE
  185. recommendations were dangerous because they were later going to be
  186. looked at as some kind of admission by allegedly knowledgeable
  187. people that cryptography is an evil tool that will only be used by
  188. terrorists and drug dealers.  And it is interesting that Senator
  189. Leahy himself refers to the struggle of the law enforcement with
  190. crimes -- and I assume he is talking about drug dealers and what
  191. have you.  But someone should point out to him that they are not
  192. using cryptography today so I don't know what the struggle is all
  193. about.  They may be struggling against criminals -- not because of
  194. cryptography but simply because a crime is just a major problem.
  195. I would also like to tell them that I don't think that the
  196. intelligence agencies struggle when it comes to tapping ordinary
  197. law abiding citizens.  They do very well, thank you.
  198.                               I also think that the realities are
  199. very different because cryptography is extremely important for two
  200. very critical applications.  Now so far you mostly hear about one
  201. of them which is privacy.  But the other application that also
  202. needs privacy work on is authenticity, or identification.  These
  203. are two extremely critical applications of cryptography.  And what
  204. is interesting is that the current proposals -- again, you only
  205. hear about one of them -- actually constitute a double whammy --
  206. because there are two proposals that are being put forth today.
  207. You only hear about Clipper but what you do not hear about as much
  208. is the other twin monster that which is the digital signature
  209. standard.  Basically what they are trying to do with this -- with
  210. Clipper you lack privacy and with DSS you essentially lack the
  211. signature, the identification schemes -- the two most important
  212. operations/applications of cryptography.
  213.                               So what will essentially happen is
  214. that not only can you invade privacy with digital signatures which
  215. will be essentially the new way of identifying yourselves to an
  216. awful lot of systems and executables.  They will actually be able
  217. to deny your very existence if those systems are allowed to be only
  218. government issued because it will be impossible in the systems of
  219. the future not to use something like digital identification/
  220. digital authentication schemes because there are no other effective
  221. means.  You all know about the silly paper systems we use for
  222. identifications, and even high school students know how to fake
  223. ID's to drink.  So we will be moving toward digital signatures and
  224. if there is only one digital signature it's essentially a proposal
  225. to have just one government Bic pen.  That is what they would like
  226. us to have.  One pen to sign our names with and sign our checks
  227. with and authenticate ourselves with.
  228.                               Now again, as I said, privacy is one
  229. application and I have raised a number of objections to it because
  230. it has been again portrayed as a tool of crime and criminals and
  231. drug dealers.  But they are not the only ones who will be using
  232. cryptography and more importantly, if we continue this policy they
  233. will be the only ones who will have good security because we will
  234. not have any security as to privacy.  And as that saying
  235. goes "if you outlaw privacy, only outlaws will have privacy".  It
  236. is very strange.  I find myself wanting to go and join
  237. organizations like the NRA all of a sudden.  I really do.
  238.                               There is also an interesting sort of
  239. deception here going on with this so called escrow system.  The
  240. problem is that, how in the hell can you escrow privacy.  Go look
  241. at the definition of escrow -- it says that something of value held
  242. in trust is given back.  Can you give back privacy?  That is
  243. impossible.  So I think that the very title of that is deceptive.
  244.  
  245.                               Then I was amused, as some of you
  246. might have been, with all the stories about bugging to look up a
  247. recent case of my friend Bobby Inman again, standing in front of
  248. television cameras saying that William Safire and Senator Dole were
  249. conspiring to get him with the President.  And the question is,
  250. where is he getting this kind of data?  Presumably he must because
  251. he spent his whole life, by the way, being very careful about what
  252. to say.  You know, I can't imagine he is saying that without having
  253. something to back up with what he was claiming.  So when we talk
  254. about bugging, just what do they do with all that data?  Well, I
  255. think you have seen an example of what possibly may have been dealt
  256. with -- data that is intercepted.
  257.                               Again, authenticity is another area
  258. that I think people should pay attention to.  The second most
  259. important application of the use of identification, digital
  260. signatures for proving who you are and yet again they are proposing
  261. just one single big pen.  I think that these two proposals jointly
  262. amount to what I consider a digital dragnet.  Thank you.
  263. STUART BAKER:                 I have a friend who gives speeches a
  264. lot and he likes to begin all his speeches by referring to country
  265. and western songs that sum up the theme of his talk.  When he talks
  266. about U.S./Japan trade relations, he always starts out by referring
  267. to that classic "you got the gold mine, I got the shaft."  And I
  268. thought about what David would have given as the country and
  269. western song that I should probably sing here and I think in
  270. relation to the Clipper Chip it would probably be "How can I miss
  271. you if you won't go away?"
  272.                               There is a reason why the Clipper
  273. Chip won't go away and what I thought I would try to do very
  274. quickly because I only have ten minutes before the lynching begins
  275. is talk about why Key Escrow hasn't gone away by talking about some
  276. of the myths that are pretty prevalent about Key Escrow.  I am not
  277. going to call it Clipper because there are a lot of products called
  278. Clipper.  This is the internal name, not something that was used
  279. for the public.  I don't object to people calling it Clipper but
  280. there probably are people who have Clipper products who would
  281. prefer that it not be called that.
  282.                               Let me see if I can put the first one
  283. up.  [OH slide: Myth #1: Key escrow encryption will create a brave
  284. new world of government, intrusion into the privacy of Americans.]
  285. I think this is pretty -- probably the classic opening statement
  286. about Clipper.  That this is the beginning of some kind of brave
  287. new world in which everybody's privacy is at risk in a substantial
  288. new way.  There is a lot of emotion behind that argument but not a
  289. lot of fact, because if you ask yourself if everybody in the United
  290. States used key escrow encryption and only key escrow encryption,
  291. which is not what the Administration has proposed by any means,
  292. what would the world look like?  Well, the world would look like
  293. the world we live in today.  It would be possible for the
  294. government to intercept communications subject to a variety of
  295. legal rules that make it very dangerous to go outside those rules.
  296. And, in fact, it would be a more private world because other people
  297. without authority would not be able to intercept and decrypt those
  298. communications.  That is important because, in fact, there is
  299. somebody proposing a brave new world here and it is the people who
  300. want people to go away and to have unreadable encryption installed
  301. on all of the communications networks in the United States.  That's
  302. a new world and that is a world we don't understand.  We don't live
  303. in it today.
  304.                               We don't know what it is going to be
  305. like if criminals or terrorists or other people who are hostile to
  306. society can use that sanctuary to communicate.  We don't know what
  307. it is like but it probably won't be as pleasant in terms of freedom
  308. from crime and terror as the world we live today, which is not
  309. exactly a comforting thought.  It won't be a world in which the
  310. government can do more than they do today.  So if you ask yourself
  311. well, how bad is it today, that's as bad as it can get under
  312. Clipper.
  313.                               [OH Slide: Myth #2L Unbreakable
  314. encryption is the key to our future liberty]
  315.                               Now the response to that, that you
  316. hear from people, well, yeah but what if the Republicans get
  317. elected?  What if the Administration changes?  This is a guarantee.
  318. I don't want to have to rely on laws and procedures and escrow
  319. agents.  I don't trust the escrow agents, I don't trust the courts,
  320. I don't trust the government, I don't trust anybody.  I want to
  321. trust my machine.
  322.                               Now that is not an uncommon way of
  323. thinking in the parts of this community.  I said to somebody once,
  324. this is the revenge of people who couldn't go to Woodstock because
  325. they had too much trig homework.  It's a kind of romanticism about
  326. privacy and the kind of, you know, "you won't get my crypto key
  327. until you pry it from my dead cold fingers" kind of stuff.  I have
  328. to say, you know, I kind of find it endearing.
  329.                               The problem with it is that the
  330. beneficiaries of that sort of romanticism are going to be
  331. predators.  PGP, you know, it is out there to protect freedom
  332. fighters in Latvia or something.  But the fact is, the only use
  333. that has come to the attention of law enforcement agencies is a guy
  334. who was using PGP so the police could not tell what little boys he
  335. had seduced over the net.  Now that's what people will use this for
  336. -- not the only thing people will use it for but they will use it
  337. for that and by insisting on having a claim to privacy that is
  338. beyond social regulation we are creating a world in which people
  339. like that will flourish and be able to do more than they can do
  340. today.
  341.                               [OH Slide: Myth #3: Encryption is the
  342. key to preserving privacy in a digital world]
  343.                               I'll move quickly.  There is another
  344. argument that I think is less romantic and that is the notion that
  345. technically, because we are all going to be networked, we are all
  346. going to be using wireless stuff -- we need encryption for privacy.
  347. I am not going to say that does not fit but it is a little
  348. oversold.  Actually, I agreed with Professor Davida.  Much of the
  349. privacy problems that we see in an electronic world are not because
  350. people are intercepting our communications, they're because we are
  351. giving it away.  But what we don't like is that there are people
  352. now in a position that collate it all from public stuff that we
  353. willingly gave up.  Well, you know, we gave this information to get
  354. a loan from one bank and before we know it, you know, our ex-
  355. spouse's lawyer has got it.  That's a problem, but encryption won't
  356. solve it because you are going to have to give that information up
  357. if you want the benefit that the bank has.
  358.                               Similarly the most important use for
  359. the protection for privacy, protection for data, is authentication
  360. -- digital signatures as opposed to privacy.  I won't say that
  361. encrypting data for privacy purposes is irrelevant but it is
  362. probably not the most important way of guaranteeing privacy in an
  363. electronic age.
  364.                               [OH Slide: Myth #4: Key Escrow won't
  365. work.  Crooks won't use it if it's voluntary.  There must be a
  366. secret plan to make key escrow encryption mandatory]
  367.                               This will be familiar.  You shouldn't
  368. over estimate the I.Q. of crooks.  When I was first starting out as
  369. a lawyer I was in Portland, Maine and a guy walked into a downtown
  370. bank and he said, he handed a note to the teller, it said, "Give me
  371. all your money; I don't have a gun but I know where I can get one."
  372. I'm sure if you sent him out to buy encryption he for sure would
  373. buy the Clipper Chip.
  374.                               I think this misstates the problem.
  375. The notion that what the government is trying to do is to put in
  376. everybody's hands this kind of encryption in the hopes that crooks
  377. will be fooled into using it I think is to misstate the nature of
  378. the concern.  The concern is not so much what happens today when
  379. people go in and buy voice scramblers; it is the prospect that in
  380. five years or eight years or ten years every phone you buy that
  381. costs $75 or more will have an encrypt button on it that will
  382. interoperate with every other phone in the country and suddently we
  383. will discover that our entire communications network, sophisticated
  384. as it is, is being used in ways that are profoundly anti-social.
  385. That's the real concern, I think, that Clipper addresses.  If we
  386. are going to have a standardized form of encryption that is going
  387. to change the world we should think seriously about what we are
  388. going to do when it is misused.
  389.                               [OH Slide: Myth #5: Industry must be
  390. left alone for competitiveness reasons]
  391.                               Are we interfering with the free
  392. market?  Are we affecting the competitiveness of U.S. industry
  393. here?  First, Clipper is an option.  It is out there.  People can
  394. use it.  They can make it.  They can not use it.  And they can not
  395. make it.  It's simply an additional option on the market.  There
  396. may well be people who want this.
  397.                               I am a lawyer.  I think in terms of
  398. who is liable if something goes wrong.  And I think that if it's
  399. your business, and you are thinking about buying encryption and the
  400. possibility that your employees will misuse it to rip-off your
  401. customers, you ask yourself, well who is going to be liable if that
  402. happens?  You might think, "Geez, maybe I don't want to be in a
  403. position where I can't actually make sure the police can come in
  404. and check to see if people are misusing this encryption where I
  405. have reason to believe that they are."
  406.                               Second, and this is a point that gets
  407. lost a lot: this is a standard for what the government is going to
  408. buy because nobody in this room  has to buy this thing.  Now the
  409. complaint is kind of remarkable from all the stand-on-your-own-two-
  410. feet, free-market, nobody-tells-me-what-to-do,  organizations that
  411. we hear from.  The fact is, that this is just what the government
  412. is going to buy, and the people who are complaining that they don't
  413. want to make it, or don't want to buy it, don't have to.  What they
  414. are really saying is, we would like the government to go on testing
  415. equipment, telling us what the best stuff is so we can then go out
  416. and sell it without doing our own research, doing our own
  417. debugging, our own checks on this technology.  I think if you think
  418. of it from the government's point of view you see why we don't want
  419. to do that.  We probably -- there are very few institutions other
  420. than government that are willing to devote both the kind of energy
  421. and resources that it takes to eliminate the last few bugs in
  422. encryption software or machinery.  To go through and find every
  423. possible attack and think about how to prevent it -- somebody once
  424. said, the airport guy talking about encryption he said, well, I'll
  425. take it if it is invisible, doesn't have any effect on the pilot,
  426. and adds lift to my airplane.  There is an attitude about
  427. encryption that I think most of you have probably encountered in
  428. the commercial world is, "Yeah, I want it if it is free."  But
  429. there is very little demonstrated inclination on the part of
  430. industry to spend a lot of its own money to develop independent
  431. encryption.  And the fact is that a lot of the encryption that is
  432. out there today was designed with government money, or endorsed by
  433. government standards or otherwise supported by government
  434. fortresses.  But if the government is going to create encryption
  435. and create markets and run the cost down, then we ought to be
  436. designing and buying encryption that we are willing to see migrate
  437. into the private sector without destroying the ability of law
  438. enforcement to deal with it.
  439.                               And, I guess, the last point, people
  440. who don't want to sell to the government can make anything they
  441. want.  People are willing to put their own money into designing
  442. encryption can do it.  This is just what the governments fund.
  443. AUDIENCE COMMENT:             But you can't take it overseas.  What
  444. the government buys is (inaudible) technical for overseas.
  445. BAKER:                        This is also something that we hear
  446. a lot about and I'll deal with it quickly.
  447.                               [OH Slide: Myth #6: NSA is a spy
  448. agency. It has no business worrying about domestic encryption
  449. policy]
  450.                               Yeah, the NSA does indeed gather
  451. signal intelligence in foreign countries.  But we have a second
  452. issue.  Not only do we try to break people's codes but we make
  453. codes for the federal government.  That means we have as a
  454. significant mission trying to design secure communications here
  455. that the government is going to use.  And we face the very real
  456. concern that I described earlier, that if we design something and
  457. it's good and it's terrific stuff and the price goes down because
  458. the government has bought a lot of it, then other people are going
  459. to use it.  It may end up becoming the most common encryption in
  460. the country.  If that happens and people like this pedophile out in
  461. California start using it, we have some responsibility for that and
  462. therefore we have some responsibility to design and use encryption,
  463. that (if it does migrate to the private sector) does not put law
  464. enforcement out of business.
  465.                               [OH Slide: Myth #7: The entire
  466. initiative was done in secret.  There was no opportunity for
  467. industry or the public to be heard.]
  468.                               This is my last one.  Again, this was
  469. true, I think or at least it was a reasonable thing to say in April
  470. of '93 when the Clipper Chip first showed up in people's
  471. newspapers.  But since then the Administration has done an enormous
  472. amount of public outreach listening to a variety of groups -- EFF,
  473. CPSR, industry groups, holding hearings, organizing task forces to
  474. listen to people.  It is not that they weren't heard -- what I
  475. expect people to say is, yes but you still didn't listen.  We said
  476. we don't like it.  How come you still did it?
  477.                               I think that the answer to that is
  478. you have to ask yourself, what is the alternative that people will
  479. propose.  It is not enough in my view to simply say "Get rid of it.
  480. What we want is unreadable encryption so that we have a guarantee
  481. of privacy against some government that hasn't come to our country
  482. in 15 years or a hundred years or two hundred years, and in the
  483. same guarantee that criminals and other people who don't have
  484. society's interest at heart will have a kind of electronic
  485. sanctuary."  That is not a very satisfying answer for people who
  486. have to uphold the law as well as try to get the national
  487. information infrastructure off the ground.
  488.                               Thanks.
  489. DAVE BANISAR:                 Well, first I'd like to say I'm not
  490. sure what song you were referring to in your country and western
  491. description, but I think if I had to choose a country and western
  492. song it would probably be "Take This Job and Shove It."
  493.                               Moving onto the high road from now,
  494. I think what we have here is a really fundamental change in the way
  495. the communication system is being looked at in the future.
  496. Currently we have a situation where if somebody decides they need
  497. a wiretap, which is an issue I'll get to in a minute, whether it is
  498. useful or not, they go and they do an affirmative action.  And the
  499. communication system is essentially set up to communicate.  I use
  500. it to call.
  501.                               These two proposals, digital
  502. telephony which we haven't talked about here too much and Clipper,
  503. change that around.  They change it into a fundamental purpose for
  504. the communication sytem now is going to be, let's make it available
  505. for surveillance.  Essentially, we are designing pretapped
  506. telephones and then we have to work on the assumption that at only
  507. authorized periods will they not turn those on.  This is a
  508. fundamental change.  It treats now every person as a criminal.  We
  509. are looking at them going -- well, I think that every person in
  510. this room is a criminal so I will build the tap into their phone.
  511. Perhaps next they will be building microphones into everybody's
  512. desk chairs and only turning them on when they need them.  Frankly,
  513. in reality I don't know if the law enforcement has really made the
  514. case for wire tapping.  Just last week they busted the entire
  515. Philadelphia mob.  They got it by putting a microphone in the
  516. lawyer's office.  This book here, GangLand, it is all about how
  517. they got Gotti.  They put microphones on the street to get Gotti.
  518. The FBI comes and they give us the four cases.  They have the El-
  519. Rukh people here in Chicago which I believe was more like a scam to
  520. get some money out of the Libyan government.  They have one
  521. pedophile, they have a couple of drug dealers and so on and they
  522. keep doing this.
  523.                               I don't think they really made the
  524. case.  There's only in reality 800 or so wire taps a year.  They
  525. are only a part of the deal.  A lot of busts, especially from
  526. Mafia, are done with inside people with microphones, with a lot of
  527. other technologies out there.  The FBI has spent billions of
  528. dollars in the last ten years modernizing.  They have an amazing
  529. computer system now, amazing DNA systems, amazing everything.  They
  530. are not behind the scenes anymore, or behind the ball anymore.
  531.                               To give you a new example: There were
  532. approximately a couple thousand arrests in 1992 that they say were
  533. attributable to electronic surveillance and that includes bugs.  So
  534. it is hard to say how many of those were actually wire taps.  In
  535. 1992 there were 14 million arrests in the United States.  That's an
  536. awful lot of arrests and an awful small number of those had to do
  537. with electronic surveillance.  Are we willing to revise our entire
  538. communication system just for that very small number?  It is a
  539. question that needs to be asked.
  540.                               Now we have a problem.  I wish we
  541. could wave my magic wand here and solve the problem.  [Takes out
  542. wand] You know, this is the magic wand that I can say crypto be
  543. gone, or crypto be strong.  I don't know.  It's not working.  Oh
  544. well.  So I have a couple solutions or a couple suggestions as they
  545. may be.
  546.                               First is to withdraw the Clipper
  547. proposal.  It's a bad idea.  Nobody wants it.  Of the CNN/Time
  548. Magazine poll 80% of the American public didn't want it.  Industry
  549. doesn't want it.  Fifty-thousand people signed our CPSR Clipper
  550. petition asking for its withdrawal.  I haven't seen anybody in the
  551. world who wants this thing -- well, save two, but I won't mention
  552. them.
  553.                               What should be done is to restart the
  554. process.  Back in 1989 NIST was basically ordered to start a new
  555. process to return to make a new version of DES, or to replace DES
  556. with something else.  And they had a good idea.  They wanted it to
  557. be an open process.  They wanted to look around, talk to people
  558. like they did back with DES and they eventually got that from IBM.
  559. They wanted a public algorithm that did both security and
  560. authenticity.  They wanted it available in hardware and software.
  561. They wanted it to be a good strong standard for everybody.  This
  562. hasn't happened.
  563.                               You know, withdraw the Clipper
  564. proposal and start the process over.  There's lots of people in
  565. this room even who could come up with something very good but the
  566. fact is that we have not been allowed to do it.  We had, I guess,
  567. nine or ten months after Clipper came out which had been designed
  568. in secret for the last five years.  In that time nobody has come
  569. out and supported the thing and lots of people have had better
  570. ideas.  But they came back a couple weeks ago and came out with the
  571. exact same proposal with one or two typos replaced.  But that's
  572. about it.
  573.                               The second thing we need to do is
  574. revise the law.  We need to do this since NIST is the agency that
  575. is supposed to be in charge of this.  We should make NIST subject
  576. to the same kind of rules that every other government agency has to
  577. go by.  Why should NIST have lower standards to develop these
  578. crypto things which will affect all of our privacy than the FCC
  579. does when they hand out a radio license; when the Environmental
  580. Protection Agency does when they determine how much toxic waste we
  581. can survive in?  The basis for this, for any of you that are
  582. lawyers in the room, is known as the Administrative Procedures Act.
  583. It is very well established, it has been around 40 years.  Every
  584. other government agency, every other public government agency uses
  585. it already and it works well.  The things that go under this
  586. rulemaking is that it is open.  It is done in the open.  There's no
  587. communications behind the scenes.  It's all done in the public eye.
  588. The decision -- when they finally make a decision -- is based on
  589. the public record.  It is not based on something on a classified
  590. study.  And it is appealable.  If we think that we've been screwed
  591. we can appeal.
  592.                               Finally, as we heard three or four
  593. times today, we need an independent privacy commission.  Simply
  594. speaking, there is nobody in this government -- in the U.S.
  595. government -- who is responsible for privacy.  To look around and
  596. say, wait a second, this isn't working.  I mean, what kind of
  597. government do we have that comes up with something on surveillance
  598. and calls it the "Communication Privacy Improvement Act"?  What we
  599. need is a government agency that can look around and give an
  600. independent assessment on what's going on.  And it can't be shunted
  601. aside or ignored or anything like that.  We have to realize, and I
  602. apologize for breaking Bob's ground rules, that we're building the
  603. national information infrastructure without any guard rails.  And
  604. we need to think about it and get back.
  605.                               Thank you.
  606. BOB SMITH:                    Questions, short and sweet.  We have
  607. limited time.
  608. CHARLES MARSON                Charles Marson, lawyer of San
  609. Francisco.  I would like to ask a question of the General Counsel.
  610. I have to say, this may be my one lifetime opportunity.
  611.                               A lot of the Administration's case
  612. for the Clipper depends on a reliance and a level of comfort with
  613. present law.  We are always told present law covers these things we
  614. are not extending anything.  Present law requires your agency, sir,
  615. to apply to the foreign intelligence court for a warrant.  CBS News
  616. issued a report last month that said that -- I think it was 4,500
  617. applications had been made to that court -- all appointed by Chief
  618. Justice Renquist, and 4,500 have been granted.  That is to say not
  619. one has been denied.  Now in terms of our comfort level with
  620. present law will you tell us why it is that we should not conclude
  621. that this court is nothing but a Fourth Amendment fig leaf and that
  622. your agency is in fact free to tap anybody it wants.
  623. STU BAKER                     There's an interesting element -- I
  624. think you have to understand bureaucratic behavior in part here.
  625. CHARLES MARSON                My fear is that I do, sir.
  626. [Laughter] A real tap whomever you please.
  627. STU BAKER                     Let's bear in mind, these are all
  628. Article III judges.  I actually don't know that the figures you
  629. gave are right.  But these are Article III judges from all over the
  630. country.  They are used to seeing law enforcement wire taps and to
  631. reviewing them carefully.  Their whole life is sticking to the law.
  632. CHARLES MARSON                If they said yes all the time, who
  633. cares?
  634. STU BAKER                     Well, I -- let me offer an
  635. alternative explanation for the record of the courts and the agency
  636. in terms of FISA applications.  And that is this.  No one wants to
  637. be the first general counsel whose application is turned down.
  638. Nobody wants to get creative about what you can do and what you
  639. can't do.  And so the effect of putting into judicial review is not
  640. so much that it is going to lead to judges rejecting a lot of stuff
  641. as much as it will make the agency make sure that before it takes
  642. something to the court, it is absolutely confident it has a case
  643. that it can make, that the judge will accept as fitting within the
  644. standards set by the statute.  It's for the same reason that
  645. prosecutors don't like to bring cases that they don't think they
  646. can win.  People do not like to try and fail and they consequently
  647. are very careful about what they put forward.  I think that in fact
  648. is a more creditable explanation of the figures that you gave if
  649. they are right than the explanation you gave which is that judges
  650. don't care what the law is.  I don't think that's true.
  651. SPEAKER                       Could we move on to the next
  652. question, thank you.
  653. PHIL ZIMMERMANN               That explanation reminds me of the
  654. Doonsberry cartoon about grade inflation where some students sued
  655. for not getting an "A" in this course and in the courtroom they
  656. said that this university gave an "A" to all students.  How is it
  657. possible that the entire graduating class had an "A" average of 4.0
  658. and they said, well, you know, it's just a great class.  So I guess
  659. all those guys that applied for the wiretap orders through that
  660. judge, all those judges, absolutely all of them did everything
  661. right.  It's sort of a grade inflation for wire tap requests.
  662.                               One thing that bothers me about this
  663. process of Clipper ....
  664. MODERATOR                     Your name please.
  665. PHIL ZIMMERMANN               I'm sorry.  I'm Phil Zimmerman.  I am
  666. the author of PGP [applause].  I'm sorry, I didn't hear the part
  667. about what is your name.
  668.                               It seems to me that this Clipper
  669. process has some kind of secret game plan that the government is
  670. following through that we only find out about each step of it as it
  671. unfolds.  I saw on the net some news about some representative of
  672. the U.S. government going -- it might have been from NSA -- talking
  673. to people in Europe, other countries in Europe, about them getting
  674. their own Clipper systems.  Well, that seems like a public policy
  675. thing that we should have been discussing openly here before
  676. sending somebody over there to quietly do horizontal escalation and
  677. get this Clipper thing glued in worldwide, planetwide before ....
  678. thus making it harder to reverse later.
  679. MODERATOR                     Could you phrase the question?  The
  680. line behind is getting restless.
  681. ZIMMERMANN                    Okay, okay.
  682.                               I think that this kind of secretive
  683. agenda is not being treated like other public policy issues like
  684. health care and things like that that are openly debated.  It's
  685. like we are being treated like an enemy foreign population to be
  686. manipulated cynically.  And so I would like somebody to respond to
  687. that, whoever wants to respond to that -- why can't we be treated
  688. like ...
  689. MODERATOR                     Let's hear the response.
  690. ZIMMERMANN                    Okay.
  691. STU BAKER                     There isn't a secret plan.
  692. AUDIENCE                      (Negative response from the
  693. audience.)
  694. STU BAKER                     But, all right, there will be --
  695. we're not the only place that's worried about law enforcement and
  696. criminal misuse of the communications system.  Every country in the
  697. world is going to be concerned about that -- it is no surprise.
  698. Today France says we will tell you what you can use, what you can
  699. export, what you import.  Singapore, we've had lots of companies
  700. say we're concerned about that.
  701. ZIMMERMANN                    Singapore -- it's illegal to not
  702. flush the toilet in Singapore.  I didn't make that up, that's true.
  703. It's possible to construct a society -- a crime-free society -- but
  704. who wants to live in a society like that?  We might be heading
  705. toward Singapore.  I'm glad you said Singapore -- I couldn't have
  706. paid you money to say that -- I'm glad you said Singapore.
  707. STU BAKER                     But look, Italy has just banned forms
  708. of encryption on the phone system.  The significance I think of the
  709. Singapore example is that we shouldn't expect that as Asians get
  710. richer they are going to say, oh well, let's adopt American views
  711. about privacy.  What's important about that, I think, is the view
  712. that we get from a lot of people whose life has been open systems
  713. and will have seen that standards are the key to new technological
  714. advances, believe that if they could standarize encryption and sell
  715. it everywhere in the world, it would sweep the world and whoever
  716. had the best product would win.  I think that reckons without the
  717. law enforcement concerns that you will see in every country.  And
  718. you are already beginning to see other countries say we are not
  719. going to tolerate unreadable encryption of all sorts proliforating
  720. throughout our communications network.  You are going to see more
  721. of that.  Not less.  It won't happen here but it will happen in
  722. other countries.
  723. AUDIENCE                      Yes, worldwide.
  724. MODERATOR                     Can we move onto the next question?
  725. And we probably have time for only two more.
  726. BLAKE SOBILOFF                My name is Blake Sobiloff and I'm
  727. with ACM SIGCAS and I'm trying to figure out some sort of
  728. philosophical presupposition that you have -- the kind that frames
  729. your approach to your objections to anti-Clipper individuals.
  730. BAKER                         Most of the anti-Clipper individuals
  731. I really like actually.
  732. BLAKE SOBILOFF                Okay, well, their position.  Would it
  733. be fair to characterize your position as one that assumes that a
  734. desire for an unimpeachable privancy can be fairly well equated
  735. with the desire to engage in lawless acts?
  736. BAKER                         No, I think that's completely wrong.
  737. The problem is that guaranteeing privacy to everybody is going to
  738. guarantee it to some people who will misuse that kind of
  739. technological sanctuary.
  740. AUDIENCE                      (Negative response.)
  741. BAKER                         All right, okay.  Well, to continue
  742. the poor song metaphor, if anyone is familiar with the Spin Doctors
  743. rock group.  Let me say that you are a fantastic Spin Doctor and I
  744. do admire you for that but I'll keep my pocket full of kryptonite.
  745. Thanks.
  746. QUESTION                      Can I make a comment on that.
  747. BAKER                         Yes.
  748. QUESTION                      I think it is important to say
  749. something about who asked NSA to be the guarantor of privacy.
  750. Asking NSA to guarantee privacy is sort of like asking Playboy to
  751. guard chastity belts.
  752. BAKER                         I tried to address that briefly.  Our
  753. job is in fact to guarantee the privacy of U.S. government
  754. communications when they're talking about whether to go to war, for
  755. example.  That's one of the things we do and it is one of our two
  756. principle missions.  We do guarantee privacy.  Now I understand the
  757. reaction but we do have a job to create encryption and to make it
  758. as good as we possibly can.
  759. AUDIENCE                      Not for my privacy.
  760. BAKER                         My concern is that what we design is
  761. very likely to be -- to find itself migrating into private sector
  762. and if we design it in a way that is going to put law enforcement
  763. out of business we haven't acted responsibly.
  764. MODERATOR                     Next question.
  765. HERB LIN                      My name is Herb Lin.  I'm with the
  766. National Academy of Sciences regarding the need for an independent
  767. look at it.  The U.S. Congress has asked the Academy to undertake
  768. an independent assessment of national cryptography policy.
  769. Descriptions of that study are out on the giveaway desk.  I'll be
  770. glad to talk to anybody about it.
  771. MODERATOR                     Thank you.  We've got one more.
  772. (Unknown)                     My name is Barbolin (?) from GRC (?).
  773. I have a question concerning the algorithm that is used in the
  774. Clipper Chip, Skipjack.  That algorithm is not being made public
  775. and yet one of the very basis of scientific research is that the
  776. work should be published and then reviewed by the community and
  777. approved as the state-of-the-art develops.  Yet it seems that the
  778. NSA reluctant to do that.  There is a certain amount of conjecture
  779. that in fact the algorithm contains a deliberately encoded weakness
  780. that will allow the NSA, without access to the escrow keys, to be
  781. able to intercept communication in their mission to monitor on-
  782. shore and off-shore communications.  There's a number of us in the
  783. scientific community that are greatly concerned that that algorithm
  784. is not being made public.  I would like the counsel from NSA to
  785. address that with a simple yes or no answer.  Is that a problem?
  786. And then I would like our university professor to comment on his
  787. opinion in this matter.
  788. BAKER                         I'll answer it yes or no if you'll
  789. tell me exactly the question.
  790. UNKNOWN                       Does it or does it not contain a
  791. weakness that allows you to intercept the communications without
  792. access to the escrow keys.
  793. BAKER                         No.
  794. MODERATOR                     I'm sorry, that has to be the last
  795. question.  We will conclude.  I'm sorry, we have to stick to the
  796. schedule.  [Negative audience response.]
  797. We'll conclude with another country song which is ....
  798. GEORGE TRUBOW, CONF. CHAIR    Let me explain to you what our
  799. problem is.  During the reception this room is going to be cleared
  800. and turned into the dining room for our meal this evening and so
  801. the hotel has a schedule; and if you want to give up the evening
  802. reception and meal we could do that but that's why we've got to
  803. close out.  You want to go for a little longer.  Okay, how about
  804. this for a promise, we'll quit at six (pm) which will give us
  805. another seven minutes.  All right.
  806. PROFESSOR DAVIDA         I will comment just very briefly about
  807. this issue of standards and algorithms.
  808.                          I've worked for almost 20 years in
  809. organizations like IEEE(?) Computer Society and we have addressed
  810. issues like standards.  It is important to understand what a
  811. standard is.  Standards' purposes are primarily to promote trust in
  812. commerce and the products that you are actually engaging in, buying
  813. or using.  DES and other encryption standards deviate from that
  814. substantially.  These are not standards that set a boxing or weight
  815. standard, or a packaging standard, which is what most electronic
  816. standards and computer standards tend to be like.  For example,
  817. there is no standard that says you must use the Intel 8085 or
  818. whatever.  There is no standard that says you must use a particular
  819. chip.  The standards pertain to buses, number of bytes and what
  820. have you.  DES and other standards like that force us to adopt
  821. something which is basically monopolistic.  It is specific
  822. algorithm.  So there are some fundamental faults with it.  But as
  823. for trusting algorithm that somebody else designed, I stand by my
  824. previous comment.
  825. MODERATOR                     Thank you.
  826. MIKE GODWIN                   I'm Mike Godwin with the Electronic
  827. Frontier Foundation and I have a question, as you can image for the
  828. General Counsel of the NSA.
  829.                          You said in myth number four that we can
  830. anticipate -- and in fact NSA did anticipate that these
  831. technologies would become available in five to ten years.  People
  832. would go buy telephones, have an encryption button and be able to
  833. use this technology -- I think I am quoting you accurately -- in
  834. profoundly anti-social ways.  Isn't it true that many otherwise
  835. acceptable technologies can be used by individuals in profoundly
  836. anti-social ways including, say the printing press.  Isn't it in
  837. fact true that in a democratic society we make a decision to
  838. empower individuals knowing upfront and openly that we do so taking
  839. risk about society.  Isn't that in fact the case in this country?
  840. BAKER                    Yes.  And first I should say, Mike, I
  841. haven't met you but I've read your stuff and actually, is David
  842. Sternlight here too?
  843.                          Sure you take risks and you have to look
  844. at each technology as it comes.  Let's take a look at cars.  Cars
  845. have advantages and risks and how do we deal with that.  We put
  846. license plates on every car and everybody has to have a license
  847. plate on their car even if they think it violates their First
  848. Amendment Rights to do it.
  849. MIKE GODWIN              In fact, automobiles are a little bit
  850. different because we do have explicit Constitutional guarantees
  851. with regard to communications.  We have implicit and explicit
  852. guarantees as regard to privacy and it is a little bit different
  853. from driving your Ford.
  854. BAKER                    Well, actually there is a Constitutional
  855. right to travel.
  856. MIKE GODWIN              There is a Constitutional right to travel,
  857. that's correct.  But we are talking -- it's still a false analogy.
  858. This is a central right.  You know, Hugo Black said that there is
  859. a reason for the First Amendment to be a First Amendment.
  860. BAKER                    This is why I never get on the net with
  861. you, Mike.
  862. MIKE GODWIN              So I take it you've answered my question.
  863. The reason -- the thing that really troubled me about your comments
  864. is that you did talk about France and Italy and Singapore and it
  865. seems to me worth pointing out that the theory of government that
  866. we have in this country is a little bit different from the theory
  867. of government in France, Italy and Singapore.  (Applause)
  868. BAKER                    Absolutely.  I don't think that we will
  869. ever have the same view of government that any of those places
  870. have.
  871. MIKE GODWIN              I'm confident.
  872. BAKER                    And I think the short answer is, yes, as
  873. each technology comes along we have to evaluate the risks and the
  874. rewards that come with it and try to figure out the way to get as
  875. much good from it and as little bad from it.  And the response is
  876. going to be very variable depending on the technology.  But you
  877. can't set up a principle that says we will always do whatever seems
  878. like the best technology today without regard for the social
  879. consequences.  We don't do that with guns, we don't do that with
  880. cars, we don't do that with any kind of technology.
  881. MODERATOR                Can we go on to another question?
  882. JOHN BRIMACOMBE          Hi, my name is John Brimacombe I'm a
  883. European scientist and user of cryptography.  I'd like to go
  884. through something very quickly here.  First, you know, people know
  885. about cryptography in Europe.  We know about all the algorithms.
  886. Secondly, you know, scientists in Europe don't have brains so
  887. defective that we can't implement them.  And there is going to be
  888. a big market for this sort of stuff out there in the world.  Now,
  889. we can do that work, we are doing that work, we like doing that
  890. work.  You are cutting yourselves off.  My question is, why are you
  891. screwing yourselves this way?  My worry looking at your nice
  892. salesmen of your shiny Clipper Chip coming to sell it to all my CEC
  893. people.  I'm worrying that you see this problem.  You see
  894. yourselves being put out of the market by these nice Europeans.
  895. They say, okay, let's go and screw their market up to a Clipper.
  896. MODERATOR                No response?
  897. BAKER                         No, I liked the speech.
  898. MATT BLAZE                    Matt Blaze from Bell Labs.  I have a
  899. question that was originally for Senator Leahy but it could be
  900. equally well directed to the NSA Counsel.  Do you see any risks in
  901. terms of risk assessment of the Clipper proposal to the fact that
  902. the escrow procedures exist entirely within the purview of the
  903. Executive Branch, the Attorney General in particular, and can be
  904. changed essentially at will entirely within a single branch of
  905. government?
  906. BAKER                         I think that's a reasonable concern.
  907. One of the interesting things is that we designed it so you decide
  908. who you trust and that's where the keys go as a society. And we
  909. didn't have much input into who holds the keys.  This is almost a
  910. litmus test though.  It is kind of interesting when you ask, well
  911. who do you trust, exactly?  And often the answer is "Well, just not
  912. those guys."  And it is much harder when you ask the question,
  913. "Well who would you trust?"  I think Jerry Berman was quoted as
  914. saying I don't care if it is Mother Theresa and the Pope who holds
  915. the keys.  There certainly are people who feel that way.  There is
  916. a lot of talk about whether, you know, should you have private
  917. sector entities hold the keys and I have to say that one doesn't
  918. ...
  919. MODERATOR                I have to say through the escrow agency.
  920. The procedures are written and under the authority of the --
  921. entirely within the Attorney General.
  922. BAKER                         The procedures don't change the fact
  923. that we are all governed by laws that are already on the books that
  924. make it a felony to do stuff without authority.  And so the
  925. procedures for withdrawing key are written down as Executive Branch
  926. rules but the legal framework for that is set by Congress or by the
  927. Fourth Amendment as a matter of fact.
  928. EFREM LIPKIN                  I'm Efrem Lipkin that works in
  929. community and I guess I'm a fossil from the '60's.  My parents had
  930. to deal with HUAC.  I had the utterly surreal experience -- I was
  931. in the Civil Rights Movement -- I had this surreal experience of
  932. apparently a government agent tried to plant a copy of the Daily
  933. Worker on me.  And so my question is really for CPSR.  Why, I
  934. understand why the NSA says we don't have to worry about this
  935. government.  We haven't had any trouble with it recently.  But why
  936. doesn't CPSR point out all of the trouble we have had and how the
  937. protection -- the privacy protection we want and that we
  938. historically needed -- is from the government.
  939. BANISAR                       Well, obviously, you haven't been
  940. reading a whole lot of my press releases.  We've been pointing out
  941. a lot of the abuses and problems that have been going on.  We have
  942. also some deep concerns to pour off here a little bit about the
  943. escrow procedures.  At the end of each escrow procedure it mentions
  944. that they are not enforceable so if they are violated it wouldn't
  945. matter because this evidence can't be suppressed.  Frankly -- I
  946. guess somebody asked me today -- Mike Nelson from OSTP apparently
  947. now is talking about putting the escrow key holders outside the
  948. government.  I frankly think that it wouldn't make a whole world of
  949. difference whether Mother Theresa and the Pope held the keys then
  950. if they are not enforceable.
  951. MODERATOR                Thank you, thanks to all the panelists for
  952. coming.  We'll conclude with another country song, "I've Enjoyed
  953. About as Much of This as I Can Stand."
  954.                               Just a moment please, there is a
  955. related announcement on an equally high note I want to read this to
  956. you and to my colleague here.  To a dedicated advocate, gifted
  957. journalist, generous friend and true champion of freedom, Robert
  958. Ellis Smith. publisher, Privancy Journal, in recognition of 20
  959. years in service to the cause of privacy protection.  With warm
  960. regards from friends and colleagues in celebrating the 20th year of
  961. the publication of this fine journal.
  962. ROBERT ELLIS SMITH            I have a few words I would like to
  963. say.
  964.  
  965. END OF TAPE
  966.  
  967. ===================================================================
  968. There endeth the transcript - CFP'94 Volunteers.
  969.  
  970. ------------------------------
  971.  
  972. End of Computer Underground Digest #6.30
  973. ************************************
  974.