home *** CD-ROM | disk | FTP | other *** search
/ DP Tool Club 15 / CD_ASCQ_15_070894.iso / vrac / cud644.zip / CUD644.TXT next >
Text File  |  1994-05-22  |  59KB  |  1,138 lines

  1.  
  2.  
  3. Computer underground Digest    Sun  May 22, 1994   Volume 6 : Issue 44
  4.                            ISSN  1004-042X
  5.  
  6.        Editors: Jim Thomas and Gordon Meyer (TK0JUT2@NIU.BITNET)
  7.        Archivist: Brendan Kehoe
  8.        Retiring Shadow Archivist: Stanton McCandlish
  9.        Shadow-Archivists: Dan Carosone / Paul Southworth
  10.                           Ralph Sims / Jyrki Kuoppala
  11.                           Ian Dickinson
  12.        Covey Editors:         D. Bannaducci & S. Jones
  13.  
  14. CONTENTS, #6.44 (May 22, 1994)
  15.  
  16. File 1--EFF's Jerry Berman testimony - House Clipper/DigTel hearing 5/3/94
  17. File 2--Whit Diffie testimony - Senate Clipper Hearing, May 3 1994
  18.  
  19. Cu-Digest is a weekly electronic journal/newsletter. Subscriptions are
  20. available at no cost electronically.
  21.  
  22. CuD is available as a Usenet newsgroup: comp.society.cu-digest
  23.  
  24. Or, to subscribe, send a one-line message:  SUB CUDIGEST  your name
  25. Send it to LISTSERV@UIUCVMD.BITNET or LISTSERV@VMD.CSO.UIUC.EDU
  26. The editors may be contacted by voice (815-753-0303), fax (815-753-6302)
  27. or U.S. mail at:  Jim Thomas, Department of Sociology, NIU, DeKalb, IL
  28. 60115, USA.
  29.  
  30. Issues of CuD can also be found in the Usenet comp.society.cu-digest
  31. news group; on CompuServe in DL0 and DL4 of the IBMBBS SIG, DL1 of
  32. LAWSIG, and DL1 of TELECOM; on GEnie in the PF*NPC RT
  33. libraries and in the VIRUS/SECURITY library; from America Online in
  34. the PC Telecom forum under "computing newsletters;"
  35. On Delphi in the General Discussion database of the Internet SIG;
  36. on RIPCO BBS (312) 528-5020 (and via Ripco on  internet);
  37. and on Rune Stone BBS (IIRGWHQ) (203) 832-8441.
  38. CuD is also available via Fidonet File Request from
  39. 1:11/70; unlisted nodes and points welcome.
  40.  
  41.   UNITED STATES:  etext.archive.umich.edu (141.211.164.18)  in /pub/CuD/
  42.                   ftp.eff.org (192.88.144.4) in /pub/Publications/CuD
  43.                   aql.gatech.edu (128.61.10.53) in /pub/eff/cud/
  44.                   world.std.com in /src/wuarchive/doc/EFF/Publications/CuD/
  45.                   uceng.uc.edu in /pub/wuarchive/doc/EFF/Publications/CuD/
  46.                   wuarchive.wustl.edu in /doc/EFF/Publications/CuD/
  47.   EUROPE:         nic.funet.fi in pub/doc/cud/ (Finland)
  48.                   ftp.warwick.ac.uk in pub/cud/ (United Kingdom)
  49.  
  50.   JAPAN:          ftp.glocom.ac.jp /mirror/ftp.eff.org/
  51.  
  52. COMPUTER UNDERGROUND DIGEST is an open forum dedicated to sharing
  53. information among computerists and to the presentation and debate of
  54. diverse views.  CuD material may  be reprinted for non-profit as long
  55. as the source is cited. Authors hold a presumptive copyright, and
  56. they should be contacted for reprint permission.  It is assumed that
  57. non-personal mail to the moderators may be reprinted unless otherwise
  58. specified.  Readers are encouraged to submit reasoned articles
  59. relating to computer culture and communication.  Articles are
  60. preferred to short responses.  Please avoid quoting previous posts
  61. unless absolutely necessary.
  62.  
  63. DISCLAIMER: The views represented herein do not necessarily represent
  64.             the views of the moderators. Digest contributors assume all
  65.             responsibility for ensuring that articles submitted do not
  66.             violate copyright protections.
  67.  
  68. ----------------------------------------------------------------------
  69.  
  70. Date: Fri, 6 May 1994 12:10:26 -0400 (EDT)
  71. From: Stanton McCandlish <mech@EFF.ORG>
  72. Subject: File 1--EFF's J Berman testimony - House Clipper/DigTel hearing 5/3/94
  73.  
  74. Testimony of
  75. Jerry J. Berman, Executive Director
  76. Electronic Frontier Foundation
  77.  
  78. before the
  79.  
  80. Committee on Science, Space and Technology
  81.  
  82. Subcommittee on Technology, Environment and
  83. Aviation
  84.  
  85. U.S. House of Representatives
  86.  
  87.  
  88. Hearing on
  89.  
  90. Communications and Computer Surveillance, Privacy
  91. and Security
  92.  
  93.  
  94. May 3, 1994
  95.  
  96. Mr. Chairman and Members of the Committee
  97.  
  98. I want to thank you for the opportunity to testify today on
  99. communications
  100. and computer surveillance, privacy, and security policy.  The Electronic
  101. Frontier Foundation (EFF) is a public interest membership organization
  102. dedicated to achieving the democratic potential of new communications
  103. and computer technology and works to protect civil liberties in new
  104. digital environments.  EFF also coordinates the Digital Privacy and
  105. Security Working Group (DPSWG), a coalition of more than 50 computer,
  106. communications, and public interest organizations and associations
  107. working on communications privacy issues.  The Working Group has
  108. strongly opposed the Administration's clipper chip and digital telephony
  109. proposals.
  110. EFF is especially pleased that this subcommittee has taken an
  111. interest in these issues.  It is our belief that Administration policy
  112. developed in this area threatens individual privacy rights, will thwart
  113. the development of the information infrastructure, and does not even
  114. meet the stated needs of law enforcement and national security agencies.
  115. A fresh and comprehensive look at these issues is needed.
  116.  
  117.  
  118. I.Background on digital privacy and security policy
  119. -------------------------------------------------------
  120.  
  121. >From the beginning of the 1992 Presidential campaign, President
  122. Clinton and Vice President Gore committed themselves to support the
  123. development of the National Information Infrastructure.  They recognize
  124. that the "development of the NII can unleash an information revolution
  125. that will change forever the way people live, work, and interact with
  126. each other."  They also know that the information infrastructure can
  127. only realize its potential if users feel confident about security
  128. measures available.
  129. If allowed to reach its potential, this information infrastructure
  130. will carry vital personal information, such as health care records,
  131. private communications among friends and families, and personal
  132. financial transactions.  The business community will transmit valuable
  133. information such as plans for new products, proprietary financial data,
  134. and other strategic communications.  If communications in the new
  135. infrastructure are vulnerable, all of our lives and businesses would be
  136. subject to both damaging and costly invasion.
  137. In launching its Information Infrastructure Task Force (IITF) the
  138. Clinton Administration recognized this when it declared that:
  139.  
  140.    The trustworthiness and security of communications channels and
  141.    networks are essential to the success of the NII....  Electronic
  142.    information systems can create new vulnerabilities.  For example,
  143.    electronic files can be broken into and copied from remote locations,
  144.    and cellular phone conversations can be monitored easily.  Yet these
  145.    same systems, if properly designed, can offer greater security than
  146.    less advanced communications channels.  [_Agenda_for_Action_, 9]
  147.  
  148. Cryptography -- technology which allows encoding and decoding of
  149. messages -- is an absolutely essential part of the solution to
  150. information security and privacy needs in the Information Age.  Without
  151. strong cryptography, no one will have the confidence to use networks to
  152. conduct business, to engage in commercial transactions electronically,
  153. or to transmit sensitive personal information.  As the Administration
  154. foresees, we need
  155.  
  156.    network standards and transmission codes that facilitate
  157.    interconnection and interoperation between networks, and ensure the
  158.    privacy of persons and the security of information carried....
  159.    [_Agenda_for_Action_, 6]
  160.  
  161. While articulating these security and privacy needs, the Administration
  162. has also emphasized that  the availability of strong encryption poses
  163. challenges to law enforcement and national security efforts.  Though the
  164. vast majority of those who benefit from encryption will be law abiding
  165. citizens, some criminals will find ways to hide behind new technologies.
  166.  
  167.  
  168. II.Current cryptography policy fails to meet the needs of
  169. ------------------------------------------------------------
  170.        the growing information infrastructure
  171. ----------------------------------------------
  172.  
  173. As a solution to the conflict between the need for user privacy
  174. and the desire to ensure law enforcement access, the Administration has
  175. proposed that individuals and organizations who use encryption deposit a
  176. copy of their private key -- the means to decode any communications they
  177. send -- with the federal government.
  178.  In our view, this is not a balanced solution but one that
  179. undermines the need for security and privacy without resolving important
  180. law enforcement concerns.  It is up to the Congress to send the
  181. Administration back to the drawing board.
  182.  
  183. A.Current Export Controls and New Clipper Proposal Stifle Innovation
  184. ------------------------------------------------------------------------
  185.  
  186. Two factors are currently keeping strong encryption out of the
  187. reach of United States citizens and corporations.  First, general
  188. uncertainty about what forms of cryptography will and will not be legal
  189. to produce in the future.  Second, export controls make it economically
  190. impossible for US manufacturers that build products for the global
  191. marketplace to incorporate strong encryption for either the domestic or
  192. foreign markets.  Despite this negative impact on the US market, export
  193. controls are decreasingly successful at limiting the foreign
  194. availability of strong encryption.  A recent survey shows that of the
  195. more than 260 foreign encryption products now available globally, over
  196. 80 offer encryption which is stronger than what US companies are allowed
  197. to export.  Export controls do constrain the US market, but the
  198. international market appears to be meeting its security needs without
  199. help from US industry.  The introduction of Clipper fails to address the
  200. general uncertainty in the cryptography market.  Announcement of a key
  201. escrow policy alone is not sufficient to get the stalled US cryptography
  202. market back on track.
  203.  
  204. B.The secrecy of the Clipper/Skipjack algorithm reduces public trust
  205. ------------------------------------------------------------------------
  206.       and casts doubt on the voluntariness of the whole system
  207. --------------------------------------------------------------
  208.  
  209. Many parties have already questioned the need for a secret
  210. algorithm, especially given the existence of robust, public-domain
  211. encryption techniques.  The most common explanation given for use of a
  212. secret algorithm is the need to prevent users from bypassing the key
  213. escrow system proposed along with the Clipper Chip.  Clipper has always
  214. been presented by the Administration as a voluntary option.  But if the
  215. system is truly voluntary, why go to such lengths to ensure compliance
  216. with the escrow procedure?
  217.  
  218. C.Current plans for escrow system offer inadequate technical
  219. ----------------------------------------------------------------
  220.       security and insufficient legal protections for users
  221. -----------------------------------------------------------
  222.  
  223. The implementation of a nationwide key escrow system is clearly a
  224. complex task.  But preliminary plans available already indicate several
  225. areas of serious concern:
  226.  
  227. 1._No_legal_rights_for_escrow_users_:  As currently written, the
  228. escrow procedures insulate the government escrow agents from any legal
  229. liability for unauthorized or negligent release of an individual's key.
  230. This is contrary to the very notion of an escrow system, which
  231. ordinarily would provide a legal remedy for the depositor whose
  232. deposit is released without authorization.  If anything, escrow agents
  233. should be subject to strict liability for unauthorized disclosure of
  234. keys.
  235.  
  236. 2._No_stability_in_escrow_rules_:  The Administration has
  237. specifically declared that it will not seek to have the escrow
  238. procedures incorporated into legislation or official regulations.
  239. Without formalization of rules, users have no guaranty that subsequent
  240. administrations will follow the same rules or offer the users the same
  241. degree of protection.  This will greatly reduce the trust in the system.
  242.  
  243. 3._Fixed_Key_:  A cardinal rule of computer security is that
  244. encryption keys must be changed often.  Since the Clipper keys are
  245. locked permanently into the chips, the keys can never be changed.  This
  246. is a major technical weakness of the current proposal.
  247.  
  248. 4._Less_intrusive,_more_secure_escrow_alternatives_are_available_:
  249. The Clipper proposal represents only one of many possible kinds of key
  250. escrow systems.  More security could be provided by having more
  251. than two escrow agents.  And, in order to increase public trust, some
  252. or all of these agents could be non-governmental agencies, with the
  253. traditional fiduciary duties of an escrow agent.
  254.  
  255. D.Escrow Systems Threaten Fundamental Constitutional Values
  256. ---------------------------------------------------------------
  257.  
  258. The Administration, Congress, and the public ought to have the
  259. opportunity to consider the implications of limitations on cryptography
  260. from a constitutional perspective.  A delicate balance between
  261. constitutional privacy rights and the needs of law enforcement has been
  262. crafted over the history of this country.  We must act carefully as we
  263. face the constitutional challenges posed by new communication
  264. technologies.
  265. Unraveling the current encryption policy tangle must begin with
  266. one threshold question: will there come a day when the federal
  267. government controls the domestic use of encryption through mandated key
  268. escrow schemes or outright prohibitions against the use of particular
  269. encryption technologies?  Is Clipper the first step in this direction?
  270. A mandatory encryption regime raises profound constitutional questions.
  271. In the era where people work for "virtual corporations" and
  272. conduct personal and political lives in "cyberspace," the distinction
  273. between _communication_ of information and _storage_ of information is
  274. increasingly vague.  The organization in which one works may constitute
  275. a single virtual space, but be physically dispersed.  So, the papers and
  276. files of the organization or individual may be moved within the
  277. organization by means of telecommunications technology.  Instantaneous
  278. access to encryption keys, without prior notice to the communicating
  279. parties, may well constitute a secret search, if the target is a
  280. virtual corporation or an individual whose "papers" are physically
  281. dispersed.
  282. Wiretapping and other electronic surveillance has always been
  283. recognized as an exception to the fundamental Fourth Amendment
  284. prohibition against secret searches.  Even with a valid search warrant,
  285. law enforcement agents must "knock and announce" their intent to search
  286. a premises before proceeding.  Failure to do so violates the Fourth
  287. Amendment.  Until now, the law of search and seizure has made a sharp
  288. distinction between, on the one hand, _seizures_of_papers_ and other
  289. items in a person's physical possession, and on the other hand,
  290. _wiretapping_of_communications_.  Seizure of papers or personal effects
  291. must be conducted with the owner's knowledge, upon presentation of a
  292. search warrant.  Only in the exceptional case of wiretapping, may a
  293. person's privacy be invaded by law enforcement without simultaneously
  294. informing that person.
  295. Proposals to regulate the use of cryptography for the sake of law
  296. enforcement efficiency should be viewed carefully in the centuries old
  297. tradition of privacy protection.
  298.  
  299. E.Voluntary escrow system will not meet law enforcement needs
  300. -----------------------------------------------------------------
  301.  
  302. Finally, despite all of the troubling aspects of the Clipper
  303. proposal, it is by no means clear that it will even solve the problems
  304. that law enforcement has identified.  The major stated rationale for
  305. government intervention in the domestic encryption arena is to ensure
  306. that law enforcement has access to criminal communications, even if they
  307. are encrypted.  Yet, a voluntary scheme seems inadequate to meet this
  308. goal.  Criminals who seek to avoid interception and decryption of their
  309. communications would simply use another system, free from escrow
  310. provisions.  Unless a government-proposed encryption scheme is
  311. mandatory, it would fail to achieve its primary law enforcement purpose.
  312. In a voluntary regime, only the law-abiding would use the escrow system.
  313.  
  314. III.Recent policy developments indicate that Administration policy is
  315. -----------------------------------------------------------------------
  316.       bad for the NII, contrary to the Computer Security Act, and
  317. -----------------------------------------------------------------
  318.       requires Congressional oversight
  319. --------------------------------------
  320.  
  321. Along with the Clipper Chip proposal, the Administration announced
  322. a comprehensive review of cryptography and privacy policy.  Almost
  323. immediately after the Clipper announcement, the Digital Privacy and
  324. Security Working Group began discussions with the Administration on
  325. issues raised by the Clipper proposal and by cryptography in general.
  326. Unfortunately, this dialogue has been largely one-sided.  EFF and many
  327. other groups have provided extensive input to the Administration, yet
  328. the Administration has not reciprocated -- the promised policy report
  329. has not been forthcoming.  Moreover, the National Security Agency and
  330. the Federal Bureau of Investigation are proceeding unilaterally to
  331. implement their own goals in this critical policy area.
  332. Allowing these agencies to proceed unilaterally would be a grave
  333. mistake. As this subcommittee is well aware, the Computer Security Act
  334. of 1987 clearly established that neither military nor law enforcement
  335. agencies are the proper protectors of personal privacy.  When
  336. considering the law, Congress asked, "whether it is proper for a super-
  337. secret agency [the NSA] that operates without public scrutiny to involve
  338. itself in domestic activities...?"  The answer was a clear "no."  Recent
  339. Administration announcements regarding the Clipper Chip suggest that the
  340. principle established in the 1987 Act has been circumvented.
  341. As important as the principle of civilian control was in 1987, it
  342. is even more critical today.  The more individuals around the country
  343. come to depend on secure communications to protect their privacy, the
  344. more important it is to conduct privacy and security policy dialogues in
  345. public, civilian forums.
  346. The NII can grow into the kind of critical, national resource
  347. which this Administration seeks to promote only if major changes in
  348. current cryptography and privacy policy.  In the absence of such
  349. changes, digital technology will continue to rapidly render our
  350. commercial activities and communications -- and, indeed, much of our
  351. personal lives -- open to scrutiny by strangers.  The Electronic
  352. Frontier Foundation believes that Americans must be allowed access
  353. to the cryptographic tools necessary to protect their own privacy.
  354. We had hoped that the Administration was committed to making these
  355. changes, but several recent developments lead us to fear that the effort
  356. has been abandoned, leaving individual agencies to pursue their own
  357. policy agendas instead of being guided by a comprehensive policy.  The
  358. following issues concern us:
  359.  
  360. *Delayed Cryptography Policy Report
  361. ----------------------------------------
  362.  
  363. The policy analysis called for along with the April 16, 1993
  364. Presidential Decision Directive has not been released, though it was
  365. promised to have been completed by early fall of 1993.  We had hoped
  366. that this report would be the basis for public dialogue on the important
  367. privacy, competitiveness, and law enforcement issues raised by
  368. cryptography policy.  To date, none of the Administration's policy
  369. rationale has been revealed to the public, despite the fact that
  370. agencies in the Executive Branch are proceeding with their own plan
  371.  
  372. *Escrowed Encryption Federal Information Processing Standard (FIPS)
  373. ------------------------------------------------------------------------
  374.       approved against overwhelming weight of public comments
  375. -------------------------------------------------------------
  376.  
  377. The Presidential Decision Directive also called for consideration of a
  378. Federal Information Processing Standard (FIPS) for key-escrow
  379. encryption systems.  This process was to have been one of several
  380. forums whereby those concerned about the proposed key-escrow system
  381. could voice opinions.  EFF, as well as over 225 of our individual
  382. members, raised a number of serious concerns about the draft FIPS in
  383. September of this 1993.  EFF expressed its opposition to government
  384. implementation of key-escrow systems as proposed.  We continue to
  385. oppose the deployment of Skipjack family escrow encryption systems
  386. both because they violate fundamental First, Fourth, and Fifth
  387. amendment principles, and because they fail to offer users adequate
  388. security and flexibility.
  389.  
  390. Despite overwhelming opposition from over 300 commenters, the
  391. Department of Commerce recently approved FIPS 185.
  392.  
  393. *Large-Scale Skipjack Deployment Announced
  394. -----------------------------------------------
  395.  
  396. At the December 9, 1993 meeting of the Computer Systems Security and
  397. Privacy Advisory Board, an NSA official announced plans to deploy from
  398. 10,000 to 70,000 Skipjack devices in the Defense Messaging System in
  399. the near future.  The exact size of the order was said to be dependent
  400. only on budget constraints.  The Administration is on record in the
  401. national press promising that no large-scale Skipjack deployment would
  402. occur until a final report of the Administration Task Force was
  403. complete.  Ten thousand units was set as the upper limit of initial
  404. deployment.  Skipjack deployment at the level planned in the Defense
  405. Messaging System circumvents both the FIPS notice and comments process
  406. which has been left in a state of limbo, as well as the Administration's
  407. promise of a comprehensive policy framework.
  408.  
  409. *New FBI Digital Telephony Legislation Proposed
  410. ----------------------------------------------------
  411.  
  412. The FBI recently proposed a new "Digital Telephony" bill.  After initial
  413. analysis, we strongly oppose the bill, which would require all common
  414. carriers to construct their networks to deliver to law enforcement
  415. agencies, in real time, both the contents of all communications on their
  416. networks and the "signaling" or transactional information.
  417.  
  418. In short, the bill lays the groundwork for turning the National
  419. Information Infrastructure into a nation-wide surveillance system, to be
  420. used by law enforcement with few technical or legal safeguards.  This
  421. image is not hyperbole, but a real assessment of the power of the
  422. technology and inadequacy of current legal and technical privacy
  423. protections for users of communications networks.
  424.  
  425. Although the FBI suggests that the bill is primarily designed to
  426. maintain status quo wiretap capability in the face of technological
  427. changes, in fact, it seeks vast new surveillance and monitoring tools.
  428.  
  429. Lengthy delays on the promised policy report, along with these
  430. unilateral steps toward Clipper/Skipjack deployment, lead us to believe
  431. that Administration policy is stalled by the Cold War-era national
  432. security concerns that have characterized cryptography policy for the
  433. last several decades.
  434. EFF believes that it would be a disastrous error to allow national
  435. information policy -- now a critical component of domestic policy -- to
  436. be dictated solely by backward-looking national-security priorities and
  437. unsubstantiated law-enforcement claims.  The directions set by this
  438. Administration will have a major impact on privacy, information
  439. security, and the fundamental relationship between the government and
  440. individual autonomy.  This is why the Administration must take action--
  441. and do so before the aforementioned agencies proceed further--to ensure
  442. that cryptography policy is restructured to serve the
  443. interests of privacy and security in the National Information
  444. Infrastructure. We still believe the Administration can play the
  445. leadership role it was meant to play in shaping this policy. If it does
  446. not, the potential of the NII, and of fundamental civil liberties in the
  447. information age, will be threatened.
  448.  
  449. IV.Congressional oversight of cryptography & privacy policy is
  450. -----------------------------------------------------------------
  451.       urgently needed to right the balance between privacy,
  452. -----------------------------------------------------------
  453.       competitiveness & law enforcement needs
  454. ---------------------------------------------
  455.  
  456. All participants in this debate recognize that the need for
  457. privacy and security is real, and that new technologies pose real
  458. challenges for law enforcement and national security operations.
  459. However, the solutions now on the table cripple the NII, pose grave
  460. threats to privacy, and fail to even meet law enforcement objectives.
  461. In our judgment, the Administration has failed, thus far, to articulate
  462. a comprehensive set of policies which will advance the goals upon
  463. which we all agree.
  464. Congress must act now to ensure that cryptography policy is
  465. developed in the context of the broader goal of promoting the
  466. development of an advanced, interoperable, secure, information
  467. infrastructure.
  468. In order to meet the privacy and security needs of the growing
  469. infrastructure, Congress should seek a set of public policies which
  470. promote the widespread availability of cryptographic systems according
  471. to the following criteria:
  472.  
  473. *Use Voluntary Standards to Promote Innovation and Meet
  474. ------------------------------------------------------------
  475.       Diverse Needs:
  476. --------------------
  477.  
  478. The National Information Infrastructure stretches to
  479. encompass devices as diverse as super computers, handheld personal
  480. digital assistants and other wireless communications devices, and plain
  481. old telephones.  Communication will be carried over copper wires, fiber
  482. optic cables, and satellite links.  The users of the infrastructure will
  483. range from elementary school children to federal agencies.  Encryption
  484. standards must be allowed to develop flexibly to meet the wide-ranging
  485. needs all components of the NII.  In its IITF Report, the Administration
  486. finds that standards also must be compatible with the large installed
  487. base of communications technologies, and flexible and adaptable enough
  488. to meet user needs at affordable costs. [_AA_, 9]  The diverse uses of
  489. the NII require that any standard which the government seeks to promote
  490. as a broadly deployed solution should be implementable in software as
  491. well as hardware and based on widely available algorithms.
  492.  
  493. *Develop Trusted Algorithms and End-to-End Security:
  494. ---------------------------------------------------------
  495.  
  496. Assuring current and future users of the NII that their communications
  497. are
  498. secure and their privacy is protected is a critical task.  This means
  499. that the
  500. underlying algorithms adopted must have a high level of public trust and
  501. the overall systems put in place must be secure.
  502.  
  503. *Encourage National and International Interoperability:
  504. ------------------------------------------------------------
  505.  
  506. The promise of the NII is seamless national and international
  507. communications of all types.  Any cryptographic standard offered for
  508. widespread use must allow US corporations and individuals to function as
  509. part of the global economy and global communications infrastructure.
  510.  
  511. *Seek Reasonable Cooperation with Law Enforcement and National
  512. -------------------------------------------------------------------
  513.       Security Needs:
  514. ---------------------
  515.  
  516. New technologies pose new challenges to law enforcement and national
  517. security surveillance activities.  American industry is committed to
  518. working with law enforcement to help meet its legitimate surveillance
  519. needs, but the development of the NII should not be stalled on this
  520. account.
  521.  
  522. *Promote Constitutional Rights of Privacy and Adhere to Traditional
  523. ------------------------------------------------------------------------
  524. Fourth Amendment Search and Seizure Rules:
  525. ------------------------------------------
  526.  
  527. New technology can either be a threat or an aid to protection of
  528. fundamental privacy rights.  Government policy should promote
  529. technologies which enable individuals to protect their privacy and be
  530. sure that those technologies are governed by laws which respect the
  531. long history of constitutional search and seizure restraints.
  532.  
  533. *Maintain Civilian Control over Public Computer and
  534. --------------------------------------------------------
  535.       Communications Security:
  536. ------------------------------
  537.  
  538. In accordance with the Computer Security Act of 1987, development of
  539. security and privacy standards should be directed by the civilian
  540.  
  541. V.Conclusion
  542. ----------------
  543.  
  544. Among the most important roles that the federal government has in
  545. NII deployment are setting standards and guaranteeing privacy and
  546. security.  Without adequate security and privacy, the NII will never
  547. realize it economic or social potential.  Cryptography policy must, of
  548. course, take into account the needs of law enforcement and national
  549. security agencies, but cannot be driven by these concerns alone.  The
  550. Working Group, along with other industry and public interest
  551. organizations, is committed to working with the Administration to
  552. solving the privacy and security questions raised by the growing NII.
  553. This must be done based on the principles of voluntary standards,
  554. promotion of innovation, concern for law enforcement needs, and
  555. protection of constitutional rights of privacy.
  556.  
  557. ------------------------------
  558.  
  559. Date: Fri, 6 May 1994 12:07:04 -0400 (EDT)
  560. From: Stanton McCandlish <mech@EFF.ORG>
  561. Subject: File 2--Whit Diffie testimony - Senate Clipper Hearing, May 3 1994
  562.  
  563.  
  564. Key Escrow: Its Impact and Alternatives
  565.  
  566.  
  567.                             Testimony of
  568. Dr. Whitfield Diffie
  569. Distinguished Engineer
  570. Sun Microsystems, Inc.
  571.  
  572.            Before the Subcommitee on Technology and the Law
  573.                   of the Senate Judiciary Committee
  574.  
  575.  
  576.                             3 May 1994
  577.  
  578. Dr. Diffie is also testifying on behalf of the Digital Privacy and
  579. Security Working Group, a group of more than 50 computer, communications
  580. and public interest organizations and associations working on
  581. communications privacy issues.
  582.  
  583.  
  584.  
  585.  I would like to begin by expressing my thanks to the chairman, the
  586. members of the committee, and the committee staff for the chance not
  587. only of appearing before this committee, but of appearing in such
  588. distinguished company.  It is a pleasure to be able to present not
  589. only my own concerns and those of Sun Microsystem, but to have the
  590. opportunity of representing the Digital Privacy and Security Working
  591. Group.
  592.  
  593.     I think it is also appropriate to say a few words about my
  594. experience in the field of communication security.  I first began
  595. thinking about cryptography while working at Stanford University in
  596. the late summer of 1972.  This subsequently brought me into contact
  597. with Professor Martin E. Hellman of the Electrical Engineering
  598. Department.  Marty and I worked together throughout the mid-1970s and
  599. discovered the family of techniques now known as public key
  600. cryptography.  It is these techniques that are directly responsible
  601. for the issue before the committee today.  Prior to public key
  602. cryptography, any large scale cryptographically secure system required
  603. trusted elements with the fundamental capability of decrypting any
  604. message protected by the system.  Public key cryptography eliminated
  605. the need for network subscribers to place this level of trust in any
  606. network element.  In so doing, it potentially reduced the subscribers'
  607. vulnerability to government wiretapping.  It is this vulnerability
  608. that the Escrowed Encryption Initiative, seeks to reintroduce.
  609.  
  610.     In 1978, I walked through the revolving door from academia to
  611. industry and for a dozen years was `Manager of Secure Systems
  612. Research' at Northern Telecom.  In 1991, I took my present position
  613. with Sun Microsystems.  This has allowed me an inside look at the
  614. problems of communication security from the viewpoints of both the
  615. telecommunications and computer industries.
  616.  
  617.  
  618. The Key Escrow Program
  619.  
  620.     Just over a year ago, the Administration revealed plans for a
  621. program of key escrow technology best known by the name of its
  622. flagship product the Clipper chip.  The program's objective is to
  623. promote the use of cryptographic equipment incorporating a special
  624. back door or trap door mechanism that will permit the
  625. Federal Government to decrypt communications without the knowledge or
  626. consent of the communicating parties when it considers this necessary
  627. for law enforcement or intelligence purposes.  In effect, the privacy
  628. of these communications will be placed in escrow with the Federal
  629. Government.
  630.  
  631.     The committee has asked me to address myself to this proposal and
  632. in particular to consider three issues:
  633.  
  634.       o Problems with key escrow, particularly in the area of privacy.
  635.  
  636.       o The impact of the key escrow proposal on American business
  637. both at home and abroad.
  638.  
  639.       o Alternatives to key escrow.
  640.  
  641.  
  642. Scope
  643.  
  644.     In the course of discussing the key escrow program over the past
  645. year, I have often encountered a piecemeal viewpoint that seeks to
  646. take each individual program at face value and treat it independently
  647. of the others.  I believe, on the contrary, that it is appropriate to
  648. take a broad view of the issues.  The problem confronting us is to
  649. assess the advisability of key escrow and its impact on our society.
  650. This requires examining the effect of private, commercial, and
  651. possibly criminal use of cryptography and the advisability and effect
  652. of the use of communications intelligence techniques by law
  653. enforcement.  In doing this, I will attempt to avoid becoming bogged
  654. down in the distinctions between the Escrowed Encryption Standard
  655. (FIPS185) with its orientation toward telephone communications and the
  656. CAPSTONE/TESSERA/MOSAIC program with its orientation toward
  657. computer networks.  I will treat these, together with the Proposed
  658. Digital Signature Standard and to a lesser extent the Digital
  659. Telephony Proposal, as a unified whole whose objective is to maintain
  660. and expand electronic interception for both law enforcement and
  661. national security purposes.
  662.  
  663.  
  664. Privacy Problems of Key Escrow
  665.  
  666.     When the First Amendment became part of our constitution in 1791,
  667. speech took place in the streets, the market, the fields, the office, the
  668. bar room, the bedroom, etc.  It could be used to express intimacy,
  669. conduct business, or discuss politics and it must have been recognized
  670. that privacy was an indispensable component of the character of many
  671. of these conversations.  It seems that the right --- in the case of
  672. some expressions of intimacy even the obligation --- of the
  673. participants to take measures to guarantee the privacy of their
  674. conversations can hardly have been in doubt, despite the fact that the
  675. right to speak privately could be abused in the service of crime.
  676.  
  677.     Today, telephone conversations stand on an equal footing with the
  678. venues available in the past.  In particular, a lot of political
  679. speech --- from friends discussing how to vote to candidates planning
  680. strategy with their aides --- occurs over the phone.  And, of all the
  681. forms of speech protected by the first amendment, political speech is
  682. foremost.  The legitimacy of the laws in a democracy grows out of the
  683. democratic process.  Unless the people are free to discuss the issues
  684. --- and privacy is an essential component of many of these discussions
  685. --- that process cannot take place.
  686.  
  687.     There has been a very important change in two hundred years, however.
  688. In the seventeen-nineties two ordinary people could achieve a high
  689. degree of security in conversation merely by the exercise of a little
  690. prudence and common sense.  Giving the ordinary person comparable
  691. access to privacy in the normal actions of the world today requires
  692. the ready availability of complex technical equipment.  It has been
  693. thoughtlessly said, in discussions of cryptographic policy, that
  694. cryptography brings the unprecedented promise of absolute privacy.  In
  695. fact, it only goes a short way to make up for the loss of an assurance
  696. of privacy that can never be regained.
  697.  
  698.     As is widely noted, there is a fundamental similarity between the
  699. power of the government to intercept communications and its ability to
  700. search premises.  Recognizing this power, the fourth amendment places
  701. controls on the government's power of search and similar controls have
  702. been placed by law on the use of wiretaps.  There is, however, no
  703. suggestion in the fourth amendment of a guarantee that the government
  704. will find what it seeks in a search.  Just as people have been free to
  705. to protect the things they considered private, by hiding them or storing
  706. them with friends, they have been free to protect their conversations
  707. from being overheard.
  708.  
  709.     The ill ease that most people feel in contemplating police use of
  710. wiretaps is rooted in awareness of the abuses to which wiretapping can
  711. be put.  Unlike a search, it is so unintrusive as to be invisible to
  712. its victim and this inherently undermines accountability.
  713. Totalitarian regimes have given us abundant evidence that the use of
  714. wiretaps and even the fear of their use can stifle free speech.  Nor
  715. is the political use of electronic surveillance a strictly foreign
  716. problem.  We have precedent in contemporary American history for its
  717. use by the party in power in its attempts to stay in power?
  718.  
  719.     The essence of the key escrow program is an attempt use the buying
  720. power and export control authority of government to promote standards
  721. that will deny ordinary people ready options for true protection of
  722. their conversations.  In a world where more and more communication
  723. take place between people who frequently can not meet face to face,
  724. this is a dangerous course of action.
  725.  
  726.  
  727.     The objections raised so far apply to the principle of key escrow.
  728. Objections can also be raised to details of the present proposal.  These
  729. deal with the secrecy of the algorithm, the impact on security of the
  730. escrow mechanism, and the way in which the proposal has been put into
  731. effect.
  732.  
  733. Secrecy of the SKIPJACK Algorithm
  734.  
  735.     An objection that has been raised to the current key escrow
  736. proposal is that the cryptographic algorithm used in the Clipper Chip
  737. is secret and is not available for public scrutiny.  One counter to
  738. this objection is that the users of cryptographic equipment are
  739. neither qualified to evaluate the quality of the algorithm nor, with
  740. rare exceptions, interested in attempting the task.  In a fundamental
  741. way, these objections miss the point.
  742.  
  743.     Within the national security establishment, responsibility for
  744. communication security is well understood.  It rests with NSA.  In
  745. industry, the responsibility is far more diffuse.  Individual users
  746. are not typically concerned with the functioning of pieces of
  747. equipment.  They acquire trust through a complex social web comprising
  748. standards, corporate security officers, professional societies, etc.
  749. A classified standard foisted on the civilian sector will have only
  750. one element of this process, Federal endorsement.
  751.  
  752.     One consequence of the use of a classified algoritym that is of
  753. particular concern to industry is the fact that the algorithm is only
  754. available in tamper resistant hardware.  Software is one of the most
  755. flexible and economical ways of building products known.  In typical
  756. computer engineering practice, the additional expense of implementing
  757. functions in hardware is only undertaken when the speed of software in
  758. not adequate for the task.  Often in these cases, more expensive,
  759. higher performance, hardware implementations interoperate with less
  760. expensive, lower performance versions.  Having a standard that can
  761. only be implemented in hardware will increase costs and damage
  762. interoperability.
  763.  
  764. Security Problems with Key Escrow
  765.  
  766.     From the viewpoint of a user, any key escrow system diminishes
  767. security.  It puts potential for access to the user's communications
  768. in the hands of an escrow agent who's intentions, policies, security
  769. capabilities, and future cannot be entirely known.  In the context of
  770. modern secure telephone systems, the contrast between escrowed and
  771. unescrowed communications is particularly stark.  In the process of
  772. setting up a secure call, modern secure telephones manufacture
  773. cryptographic keys that will be used for the protection of one and only
  774. one call and will be erased after the call is complete.  Public key
  775. cryptography has made it possible to do this in such a way that these
  776. keys, once erased, can never be recovered.  This give the users
  777. a degree of privacy similar to that in a face to face meeting.  The
  778. effect of key escrow is much like having a tape recorder on throughout
  779. the meeting.  Even if the tapes are very carefully protected, the
  780. people whose words they hold can never be certain that they will not
  781. someday be played to a much wider audience.
  782.  
  783.  
  784.     There are also specific vulnerabilities associated with the
  785. present proposal.
  786.  
  787.     The Skipjack algorithm uses 80-bit keys.  If it is as good as NSA
  788. claims, cryptanalyzing it will require searching through all these
  789. keys or doing about a million billion billion encryptions.  This makes
  790. it sixteen million times as hard to break as DES.  A telephone
  791. conversation would have to be valuable indeed to justify the expense
  792. of such a computation and it is quite plausible that this is entirely
  793. infeasible today.
  794.  
  795.     The problem is that in creating the Law Enforcement Access Field,
  796. or LEAF that implements key escrow, the Clipper chip also uses 80-bit
  797. keys.  This means that in order to be able to decode everything ever
  798. encrypted by a Clipper chip it is only necessary to do a little more
  799. than twice as much work as would be required to read any one message
  800. --- one cryptanalysis to recover a Session Key followed by one to
  801. recover the Device Unique Key.  A third cryptanalysis is needed to
  802. obtain the Family Key, but this need be done only once, since it is
  803. the same in all chips.
  804.  
  805.     The process is conceptually straightforward.
  806.  
  807.      1. Starting with a set of messages encrypted with a particular
  808. Clipper chip cryptanalyze the LEAF fields, by trying every
  809. key, until a key is found that produces a well formed
  810. plaintext from every LEAF.  This works because the LEAF
  811. specifically includes an authenticator designed to make well
  812. formed LEAFs recognizable.  Once the Family Key has been found
  813. it can be used in attacking any Clipper Chip and this process
  814. need not be repeated.
  815.  
  816.      2. Pick a message and decrypt its LEAF with the family key.
  817. Eighty bits of the result form a cryptogram whose plaintext
  818. is the Session Key used to encrypt the message.  Decrypt
  819. this field with every key in turn.  Try decrypting the message
  820. with each resulting 80-bit quantity to see if it is the
  821. correct session key.  When the correct session key is discovered,
  822. the key that produced it will be the correct Device Unique
  823. Key.
  824.  
  825.      3. The combination of the Family Key and the Device Unique Key
  826. can now be used to read any message ever encrypted by
  827. the Clipper chip under attack.
  828.  
  829.     It might be argued that the scenario described above requires
  830. knowing the SKIPJACK algorithm and the LEAF creation method, both of
  831. which are classified.  It is an article of faith, however, in
  832. communications security that nothing that stays constant for a long
  833. period of time can be counted on to remain secret.  With the passage
  834. of time, the chances that the chips will be reverse engineered
  835. increases.
  836.  
  837. Irregularities in Adoption of the Standard
  838.  
  839.     Finally, there are disturbing aspects to the development of the
  840. key escrow FIPS.  Under the Computer Security Act of 1987,
  841. responsibility for security of civilian communications rests with the
  842. National Institute of Standards and Technology.  Pursuant to this
  843. statute, the Escrowed Encryption Standard appeared as Federal
  844. Information Processing Standard 185, under the auspices of the
  845. Commerce Department.  Apparently, however, authority over the secret
  846. technology underlying the standard and the documents embodying this
  847. technology, continues to reside with NSA.  We thus have a curious
  848. arrangement in which a Department of Commerce standard seems to be
  849. under the effective control of a Department of Defense agency.  This
  850. appears to violate at least the spirit of the Computer Security Act
  851. and strain beyond credibility its provisions for NIST's making use of
  852. NSA's expertise.
  853.  
  854.  
  855. Impact on Business
  856.  
  857.     Business today is characterized by an unprecedented freedom and
  858. volume of travel by both people and goods.  Ease of communication,
  859. both physical and electronic, has ushered in an era of international
  860. markets and multinational corporations.  No country is large enough
  861. that its industries can concentrate on the domestic market to the
  862. exclusion of all others.  When foreign sales rival or exceed domestic
  863. ones, the structure of the corporation follows suit with new divisions
  864. placed in proximity to markets, materials, or labor.
  865.  
  866.     Security of electronic communication is as essential in this
  867. environment as security of transportation and storage have been to
  868. businesses throughout history.  The communication system must ensure
  869. that orders for goods and services are genuine, guarantee that
  870. payments are credited to the proper accounts, and protect the privacy
  871. of business plans and personal information.
  872.  
  873.     Two new factors are making security both more essential and more
  874. difficult to achieve.  The first is the rise in importance of
  875. intellectual property.  Since much of what is now bought and sold is
  876. information varying from computer programs to surveys of customer
  877. buying habits, information security has become an end in itself rather
  878. than just a means for ensuring the security of people and property.
  879. The second is the rising demand for mobility in communications.
  880. Traveling corporate computer users sit down at workstations they have
  881. never seen before and expect the same environment that is on the desks
  882. in their offices.  They carry cellular telephones and communicate
  883. constantly by radio.  They haul out portable PCs and dial their home
  884. computers from locations around the globe.  With each such action they
  885. expose their information to threats of eavesdropping and falsification
  886. barely known a decade ago.
  887.  
  888.     Because this information economy is relentlessly global, no nation
  889. can successfully isolate itself from international competition.  The
  890. communication systems we build will have to be interoperable with
  891. those of other nations.  A standard based on a secret American
  892. technology and designed to give American intelligence access to the
  893. communications it protects seems an unlikely candidate for widespread
  894. acceptance.  If we are to maintain our leading position in the
  895. information market places, we much give our full support to the
  896. development of open international security standards that protect the
  897. interests of all parties fairly.
  898.  
  899.  
  900. Potential for Excessive Regulation
  901.  
  902.     The key escrow program also presents the specter of increased
  903. regulation of the design and production of new computer and
  904. communications products.  FIPS185 states that `Approved
  905. implementations may be procured by authorized organizations for
  906. integration into security equipment.'  This raises the question of
  907. what organizations will be authorized and what requirements will be
  908. placed upon them?  Is it likely that people prepared to require that
  909. surveillance be built into communication switches would shrink from
  910. requiring that equipment make pre-encryption difficult as a condition
  911. for getting `approved implementations'?  Such requirements have been
  912. imposed as conditions of export approval for security equipment.
  913. Should industry's need to acquire tamper resistant parts force it to
  914. submit to such requirements, key escrow will usher in an era of
  915. unprecedented regulation of American development and manufacturing.
  916.  
  917.  
  918. Alternatives to Key Escrow
  919.  
  920.     It is impossible to address the issue of alternatives to key
  921. escrow, without asking whether there is a problem, what the problem
  922. is and what solution, if any, the problem requires.
  923.  
  924.     In recent testimony before this committee, the FBI has portrayed
  925. communications interception as an indispensable tool of police work
  926. and complained that the utility of this tool is threatened by
  927. developments in modern communications.  This testimony, however, uses
  928. the broader term `electronic surveillance' almost exclusively and
  929. appears to include some cases in which the electronic surveillance
  930. consisted of bugs rather than wiretaps.  Although the FBI testimony
  931. speaks of numerous of convictions, it names not a single defendant,
  932. court, case, or docket number.  This imprecision makes adequate study
  933. of the testimony impossible and leaves open two issues: the
  934. effectiveness of communications interception in particular and that of
  935. electronic surveillance in general.
  936.  
  937.     On balance, it appears more likely that the investigative and
  938. evidential utility of wiretaps is rising than that it is falling.
  939. This is partly because criminals, like law abiding citizens, do more
  940. talking on the phone these days.  It is partly because modern
  941. communication systems, like ISDN, provide much more information about
  942. each call, revealing where it came from in real time even when it
  943. originated a long way away.  This detailed information about who
  944. called whom, when, and for how long, that modern switches provide,
  945. improves the PEN register and trap and trace techniques that police
  946. use to map the extent of criminal conspiracies.  It is unaffected by
  947. any encryption that the callers may apply.
  948.  
  949.     With respect to other kinds of electronic surveillance, the
  950. picture for law enforcement looks even brighter.  Miniaturization of
  951. electronics and improvements in digital signal processing are making
  952. bugs smaller, improving their fidelity, making them harder to detect,
  953. and making them more reliable.  Forms of electronic surveillance for
  954. which no warrant is held to be necessary, particularly TV cameras in
  955. public places, have become widespread.  This creates a base of
  956. information that was, for example, used in two distinct ways in the
  957. Tylenol poisoning case of the mid-1980s.
  958.  
  959.     Broadening the consideration of high tech crime fighting tools to
  960. include vehicle tracking, DNA fingerprinting, individual recognition
  961. by infrared tracing of the veins in the face, and database profiling,
  962. makes it seem unlikely that the failures of law enforcement are due
  963. to the inadequacy of its technical tools.
  964.  
  965.     If we turn our attention to foreign intelligence, we see a similar
  966. picture.  Communications intelligence today is enjoying a golden age.
  967. The steady migration of communications from older, less accessible,
  968. media, both physical and electronic, has been the dominant factor.
  969. The loss of information resulting from improvements in security has
  970. been consistently outweighed by the increased volume and quality of
  971. information available.  As a result, the communications intelligence
  972. product has been improving for more than fifty years, with no end in
  973. sight.  The rising importance of telecommunications in the life of
  974. industrialized countries coupled with the rising importance of
  975. wireless communications, can be expected to give rise to an
  976. intelligence bonanza in the decades to come.
  977.  
  978.     Mobile communication is one of the fastest growing areas of the
  979. telecommunications industry and the advantages of cellular phones,
  980. wireless local area networks, and direct satellite communication
  981. systems are such that they are often installed even in applications
  982. where mobility is not required.  Satellite communications are in
  983. extensive use, particularly in equatorial regions and cellular
  984. telephone systems are being widely deployed in rural areas throughout
  985. the world in preference to undertaking the substantial expense of
  986. subscriber access wiring.
  987.  
  988.     New technologies are also opening up new possibilities.  Advances
  989. in emitter identification, network penetration techniques, and the
  990. implementation of cryptanalytic or crypto-diagnostic operations within
  991. intercept equipment are likely to provide more new sources of
  992. intelligence than are lost as a result of commercial use of
  993. cryptography.
  994.  
  995.     It should also be noted that changing circumstances change
  996. appropriate behavior.  Although intelligence continues to play a vital
  997. role in the post cold war world, the techniques that were appropriate
  998. against an opponent capable of destroying the United States within
  999. hours may not be appropriate against merely economic rivals.
  1000.  
  1001.     If, however, that we accept that some measure of control over
  1002. the deployment of cryptography is needed, we must distinguish two
  1003. cases:
  1004.  
  1005. The use of cryptography to protect communications and
  1006.  
  1007. The use of cryptography to protect stored information.
  1008.  
  1009.  
  1010. It is good security practice in protecting communications to keep any
  1011. keys that can be used to decipher the communications for as short a
  1012. time as possible.  Discoveries in cryptography in the past two decades
  1013. have made it possible to have secure telephones in which the keys last
  1014. only for the duration of the call and can never be recreated,
  1015. thereafter.  A key escrow proposal surrenders this advantage by
  1016. creating a new set of escrowed keys that are stored indefinitely and
  1017. can always be used to read earlier traffic.
  1018.  
  1019.     With regard to protection of stored information, the situation is
  1020. quite different.  The keys for decrypting information in storage must
  1021. be kept for the entire lifetime of the stored information; if they are
  1022. lost, the information is lost.  An individual might consider
  1023. encrypting files and trusting the keys to memory, but no organization
  1024. of any size could risk the bulk of its files in this fashion.  Some
  1025. form of key archiving, backup, or escrow is thus inherent in the use
  1026. of cryptography for storage.  Such procedured will guarantee that
  1027. encrypted files on disks are accessible to subpoena in much the same
  1028. way that file on paper are today.
  1029.  
  1030.     Many business communications, such as electronic funds transfers,
  1031. fall into an intermediate category.  Although the primary purpose is
  1032. communication rather than storage, the transactions are of a formal
  1033. nature.  In these cases, an escrow mechanism much like those in
  1034. current commercial use may be appropriate.  In a high value
  1035. transaction, where the buyer and seller do not have an established
  1036. business relationship, either party may demand the use of a mutually
  1037. trusted escrow agent who will take temporary custody of both the goods
  1038. and the payment.  In a similar fashion, either party to an encrypted
  1039. transaction might demand that only keys escrowed with a mutually
  1040. acceptable escrow agent be used.
  1041.  
  1042.     What is most important here is that the laws, customs, and
  1043. practices governing electronic commerce and, in a broader context,
  1044. electronic society are just beginning to develop.  It is likely that
  1045. escrow mechanisms will be among the tools employed.  It is, however,
  1046. too early to say what form they should take.  They will need to be
  1047. worked out as society gets more experience with the new communications
  1048. media.  They should not be imposed by government before society's real
  1049. needs have been determined.
  1050.  
  1051.  
  1052. Conduct of the Key Escrow Initiative
  1053.  
  1054.     In my experience, the people who support the key escrow initiative
  1055. are inclined to express substantial trust in the government.  I find
  1056. it ironic therefore that in its conduct of this program, the
  1057. administration has followed a course that could hardly have been
  1058. better designed to provoke distrust.  The introduction of mechanisms
  1059. designed to assure the governments ability to conduct electronic
  1060. surveillance on its citizens and limit the ability of the citizens to
  1061. protect themselves against such surveillance is a major policy
  1062. desision of the information age.  It has been presented, however, as a
  1063. technicality, buried in an obscure series of regulations.  In so
  1064. doing, it has avoided congressional consideration of either its
  1065. objectives or its budget.  The underlying secrecy of the technology
  1066. has been used as a tool for doleing out information piecemeal and
  1067. making a timely understanding of the issues difficult to achieve.
  1068.  
  1069.  
  1070. Suppose We Make a Mistake
  1071.  
  1072.     In closing, I would like to ask a question.  Suppose we make a
  1073. mistake?
  1074.  
  1075.       o Suppose we fail to adopt a key excrow system and later
  1076. decide that one is needed?
  1077.  
  1078.       o Suppose we adopt a key escrow system now when none is
  1079. needed?
  1080.  
  1081. Which would be the more serious error?
  1082.  
  1083.     It is generally accepted that rights are not absolute.  If private
  1084. access to high-grade encryption presented a clear and present danger to
  1085. society, there would be little political opposition to controlling it.
  1086. The reason there is so much disagreement is that there is so little
  1087. evidence of a problem.
  1088.  
  1089.     If allowing or even encouraging wide dissemination of high-grade
  1090. cryptography proves to be a mistake, it will be a correctable mistake.
  1091. Generations of electronic equipment follow one another very quickly.
  1092. If cryptography comes to present such a problem that there is popular
  1093. consensus for regulating it, this will be just as possible in a decade
  1094. as it is today.  If on the other hand, we set the precedent of
  1095. building government surveillance capabilities into our security
  1096. equipment we risk entrenching a bureaucracy that will not easily
  1097. surrender the power this gives.
  1098.  
  1099.  
  1100. Recommendation
  1101.  
  1102.     In light of these considerations, I would like to suggest that the
  1103. Federal Standards making process should be brought back into line with
  1104. the intent of the Computer Security Act of 1987.  Congres should press
  1105. the National Institute of Standards and Technology, with the
  1106. cooperation of the National Security Agency, to declassify the
  1107. SKIPJACK algorithm and issue a revised version of FIPS 185 that
  1108. specifies the algorithm and omits the key escrow provisions.  This would
  1109. be a proper replacement for FIPS 46, the Data Encryption Standard, and
  1110. would serve the needs of the U.S. Government, U.S. industry, and U.S.
  1111. citizens for years to come.
  1112.  
  1113.  
  1114. Notes
  1115.  
  1116.     I have examined some aspects of the subjects treated here at
  1117. greater length in other testimony and comments and copies of these
  1118. have been made available to the committee.
  1119.  
  1120. "The Impact of Regulating Cryptography on the Computer and
  1121. Communications Industries" Testimony Before the House Subcommittee on
  1122. Telecommunications and Finance, 9 June 1993.
  1123.  
  1124. "The Impact of a Secret Cryptographic Standard on Encryption,
  1125. Privacy, Law Enforcement and Technology" Testimony Before the House
  1126. Subcommittee on Science and Technology, 11 May 1993
  1127.  
  1128. Letter to the director of the Computer Systems Laboratory at the
  1129. National Institute of Standards and Technology, commenting on the
  1130. proposed Escrowed Encryption Standard, 27 September 1993.
  1131.  
  1132.  
  1133. ------------------------------
  1134.  
  1135. End of Computer Underground Digest #6.44
  1136. ************************************
  1137.  
  1138.