home *** CD-ROM | disk | FTP | other *** search
/ The Hacker's Encyclopedia 1998 / hackers_encyclopedia.iso / zines / cud / cud644.txt < prev    next >
Encoding:
Text File  |  2003-06-11  |  58.1 KB  |  1,137 lines

  1.  
  2. Computer underground Digest    Sun  May 22, 1994   Volume 6 : Issue 44
  3.                            ISSN  1004-042X
  4.  
  5.        Editors: Jim Thomas and Gordon Meyer (TK0JUT2@NIU.BITNET)
  6.        Archivist: Brendan Kehoe
  7.        Retiring Shadow Archivist: Stanton McCandlish
  8.        Shadow-Archivists: Dan Carosone / Paul Southworth
  9.                           Ralph Sims / Jyrki Kuoppala
  10.                           Ian Dickinson
  11.        Covey Editors:         D. Bannaducci & S. Jones
  12.  
  13. CONTENTS, #6.44 (May 22, 1994)
  14.  
  15. File 1--EFF's Jerry Berman testimony - House Clipper/DigTel hearing 5/3/94
  16. File 2--Whit Diffie testimony - Senate Clipper Hearing, May 3 1994
  17.  
  18. Cu-Digest is a weekly electronic journal/newsletter. Subscriptions are
  19. available at no cost electronically.
  20.  
  21. CuD is available as a Usenet newsgroup: comp.society.cu-digest
  22.  
  23. Or, to subscribe, send a one-line message:  SUB CUDIGEST  your name
  24. Send it to LISTSERV@UIUCVMD.BITNET or LISTSERV@VMD.CSO.UIUC.EDU
  25. The editors may be contacted by voice (815-753-0303), fax (815-753-6302)
  26. or U.S. mail at:  Jim Thomas, Department of Sociology, NIU, DeKalb, IL
  27. 60115, USA.
  28.  
  29. Issues of CuD can also be found in the Usenet comp.society.cu-digest
  30. news group; on CompuServe in DL0 and DL4 of the IBMBBS SIG, DL1 of
  31. LAWSIG, and DL1 of TELECOM; on GEnie in the PF*NPC RT
  32. libraries and in the VIRUS/SECURITY library; from America Online in
  33. the PC Telecom forum under "computing newsletters;"
  34. On Delphi in the General Discussion database of the Internet SIG;
  35. on RIPCO BBS (312) 528-5020 (and via Ripco on  internet);
  36. and on Rune Stone BBS (IIRGWHQ) (203) 832-8441.
  37. CuD is also available via Fidonet File Request from
  38. 1:11/70; unlisted nodes and points welcome.
  39.  
  40.   UNITED STATES:  etext.archive.umich.edu (141.211.164.18)  in /pub/CuD/
  41.                   ftp.eff.org (192.88.144.4) in /pub/Publications/CuD
  42.                   aql.gatech.edu (128.61.10.53) in /pub/eff/cud/
  43.                   world.std.com in /src/wuarchive/doc/EFF/Publications/CuD/
  44.                   uceng.uc.edu in /pub/wuarchive/doc/EFF/Publications/CuD/
  45.                   wuarchive.wustl.edu in /doc/EFF/Publications/CuD/
  46.   EUROPE:         nic.funet.fi in pub/doc/cud/ (Finland)
  47.                   ftp.warwick.ac.uk in pub/cud/ (United Kingdom)
  48.  
  49.   JAPAN:          ftp.glocom.ac.jp /mirror/ftp.eff.org/
  50.  
  51. COMPUTER UNDERGROUND DIGEST is an open forum dedicated to sharing
  52. information among computerists and to the presentation and debate of
  53. diverse views.  CuD material may  be reprinted for non-profit as long
  54. as the source is cited. Authors hold a presumptive copyright, and
  55. they should be contacted for reprint permission.  It is assumed that
  56. non-personal mail to the moderators may be reprinted unless otherwise
  57. specified.  Readers are encouraged to submit reasoned articles
  58. relating to computer culture and communication.  Articles are
  59. preferred to short responses.  Please avoid quoting previous posts
  60. unless absolutely necessary.
  61.  
  62. DISCLAIMER: The views represented herein do not necessarily represent
  63.             the views of the moderators. Digest contributors assume all
  64.             responsibility for ensuring that articles submitted do not
  65.             violate copyright protections.
  66.  
  67. ----------------------------------------------------------------------
  68.  
  69. Date: Fri, 6 May 1994 12:10:26 -0400 (EDT)
  70. From: Stanton McCandlish <mech@EFF.ORG>
  71. Subject: File 1--EFF's J Berman testimony - House Clipper/DigTel hearing 5/3/94
  72.  
  73. Testimony of
  74. Jerry J. Berman, Executive Director
  75. Electronic Frontier Foundation
  76.  
  77. before the
  78.  
  79. Committee on Science, Space and Technology
  80.  
  81. Subcommittee on Technology, Environment and Aviation
  82.  
  83. U.S. House of Representatives
  84.  
  85.  
  86. Hearing on
  87.  
  88. Communications and Computer Surveillance, Privacy
  89. and Security
  90.  
  91.  
  92. May 3, 1994
  93.  
  94. Mr. Chairman and Members of the Committee
  95.  
  96. I want to thank you for the opportunity to testify today on
  97. communications
  98. and computer surveillance, privacy, and security policy.  The Electronic
  99. Frontier Foundation (EFF) is a public interest membership organization
  100. dedicated to achieving the democratic potential of new communications
  101. and computer technology and works to protect civil liberties in new
  102. digital environments.  EFF also coordinates the Digital Privacy and
  103. Security Working Group (DPSWG), a coalition of more than 50 computer,
  104. communications, and public interest organizations and associations
  105. working on communications privacy issues.  The Working Group has
  106. strongly opposed the Administration's clipper chip and digital telephony
  107. proposals.
  108. EFF is especially pleased that this subcommittee has taken an
  109. interest in these issues.  It is our belief that Administration policy
  110. developed in this area threatens individual privacy rights, will thwart
  111. the development of the information infrastructure, and does not even
  112. meet the stated needs of law enforcement and national security agencies.
  113. A fresh and comprehensive look at these issues is needed.
  114.  
  115.  
  116. I.Background on digital privacy and security policy
  117.  ------------------------------------------------------
  118.  
  119. >From the beginning of the 1992 Presidential campaign, President
  120. Clinton and Vice President Gore committed themselves to support the
  121. development of the National Information Infrastructure.  They recognize
  122. that the "development of the NII can unleash an information revolution
  123. that will change forever the way people live, work, and interact with
  124. each other."  They also know that the information infrastructure can
  125. only realize its potential if users feel confident about security
  126. measures available.
  127. If allowed to reach its potential, this information infrastructure
  128. will carry vital personal information, such as health care records,
  129. private communications among friends and families, and personal
  130. financial transactions.  The business community will transmit valuable
  131. information such as plans for new products, proprietary financial data,
  132. and other strategic communications.  If communications in the new
  133. infrastructure are vulnerable, all of our lives and businesses would be
  134. subject to both damaging and costly invasion.
  135. In launching its Information Infrastructure Task Force (IITF) the
  136. Clinton Administration recognized this when it declared that:
  137.  
  138.    The trustworthiness and security of communications channels and
  139.    networks are essential to the success of the NII....  Electronic
  140.    information systems can create new vulnerabilities.  For example,
  141.    electronic files can be broken into and copied from remote locations,
  142.    and cellular phone conversations can be monitored easily.  Yet these
  143.    same systems, if properly designed, can offer greater security than
  144.    less advanced communications channels.  [_Agenda_for_Action_, 9]
  145.  
  146. Cryptography -- technology which allows encoding and decoding of
  147. messages -- is an absolutely essential part of the solution to
  148. information security and privacy needs in the Information Age.  Without
  149. strong cryptography, no one will have the confidence to use networks to
  150. conduct business, to engage in commercial transactions electronically,
  151. or to transmit sensitive personal information.  As the Administration
  152. foresees, we need
  153.  
  154.    network standards and transmission codes that facilitate
  155.    interconnection and interoperation between networks, and ensure the
  156.    privacy of persons and the security of information carried....
  157.    [_Agenda_for_Action_, 6]
  158.  
  159. While articulating these security and privacy needs, the Administration
  160. has also emphasized that  the availability of strong encryption poses
  161. challenges to law enforcement and national security efforts.  Though the
  162. vast majority of those who benefit from encryption will be law abiding
  163. citizens, some criminals will find ways to hide behind new technologies.
  164.  
  165.  
  166. II.Current cryptography policy fails to meet the needs of
  167.  -----------------------------------------------------------
  168.        the growing information infrastructure
  169.  ---------------------------------------------
  170.  
  171. As a solution to the conflict between the need for user privacy
  172. and the desire to ensure law enforcement access, the Administration has
  173. proposed that individuals and organizations who use encryption deposit a
  174. copy of their private key -- the means to decode any communications they
  175. send -- with the federal government.
  176.  In our view, this is not a balanced solution but one that
  177. undermines the need for security and privacy without resolving important
  178. law enforcement concerns.  It is up to the Congress to send the
  179. Administration back to the drawing board.
  180.  
  181. A.Current Export Controls and New Clipper Proposal Stifle Innovation
  182.  -----------------------------------------------------------------------
  183.  
  184. Two factors are currently keeping strong encryption out of the
  185. reach of United States citizens and corporations.  First, general
  186. uncertainty about what forms of cryptography will and will not be legal
  187. to produce in the future.  Second, export controls make it economically
  188. impossible for US manufacturers that build products for the global
  189. marketplace to incorporate strong encryption for either the domestic or
  190. foreign markets.  Despite this negative impact on the US market, export
  191. controls are decreasingly successful at limiting the foreign
  192. availability of strong encryption.  A recent survey shows that of the
  193. more than 260 foreign encryption products now available globally, over
  194. 80 offer encryption which is stronger than what US companies are allowed
  195. to export.  Export controls do constrain the US market, but the
  196. international market appears to be meeting its security needs without
  197. help from US industry.  The introduction of Clipper fails to address the
  198. general uncertainty in the cryptography market.  Announcement of a key
  199. escrow policy alone is not sufficient to get the stalled US cryptography
  200. market back on track.
  201.  
  202. B.The secrecy of the Clipper/Skipjack algorithm reduces public trust
  203.  -----------------------------------------------------------------------
  204.       and casts doubt on the voluntariness of the whole system
  205.  -------------------------------------------------------------
  206.  
  207. Many parties have already questioned the need for a secret
  208. algorithm, especially given the existence of robust, public-domain
  209. encryption techniques.  The most common explanation given for use of a
  210. secret algorithm is the need to prevent users from bypassing the key
  211. escrow system proposed along with the Clipper Chip.  Clipper has always
  212. been presented by the Administration as a voluntary option.  But if the
  213. system is truly voluntary, why go to such lengths to ensure compliance
  214. with the escrow procedure?
  215.  
  216. C.Current plans for escrow system offer inadequate technical
  217.  ---------------------------------------------------------------
  218.       security and insufficient legal protections for users
  219.  ----------------------------------------------------------
  220.  
  221. The implementation of a nationwide key escrow system is clearly a
  222. complex task.  But preliminary plans available already indicate several
  223. areas of serious concern:
  224.  
  225. 1._No_legal_rights_for_escrow_users_:  As currently written, the
  226. escrow procedures insulate the government escrow agents from any legal
  227. liability for unauthorized or negligent release of an individual's key.
  228. This is contrary to the very notion of an escrow system, which
  229. ordinarily would provide a legal remedy for the depositor whose
  230. deposit is released without authorization.  If anything, escrow agents
  231. should be subject to strict liability for unauthorized disclosure of
  232. keys.
  233.  
  234. 2._No_stability_in_escrow_rules_:  The Administration has
  235. specifically declared that it will not seek to have the escrow
  236. procedures incorporated into legislation or official regulations.
  237. Without formalization of rules, users have no guaranty that subsequent
  238. administrations will follow the same rules or offer the users the same
  239. degree of protection.  This will greatly reduce the trust in the system.
  240.  
  241. 3._Fixed_Key_:  A cardinal rule of computer security is that
  242. encryption keys must be changed often.  Since the Clipper keys are
  243. locked permanently into the chips, the keys can never be changed.  This
  244. is a major technical weakness of the current proposal.
  245.  
  246. 4._Less_intrusive,_more_secure_escrow_alternatives_are_available_:
  247. The Clipper proposal represents only one of many possible kinds of key
  248. escrow systems.  More security could be provided by having more
  249. than two escrow agents.  And, in order to increase public trust, some
  250. or all of these agents could be non-governmental agencies, with the
  251. traditional fiduciary duties of an escrow agent.
  252.  
  253. D.Escrow Systems Threaten Fundamental Constitutional Values
  254.  --------------------------------------------------------------
  255.  
  256. The Administration, Congress, and the public ought to have the
  257. opportunity to consider the implications of limitations on cryptography
  258. from a constitutional perspective.  A delicate balance between
  259. constitutional privacy rights and the needs of law enforcement has been
  260. crafted over the history of this country.  We must act carefully as we
  261. face the constitutional challenges posed by new communication
  262. technologies.
  263. Unraveling the current encryption policy tangle must begin with
  264. one threshold question: will there come a day when the federal
  265. government controls the domestic use of encryption through mandated key
  266. escrow schemes or outright prohibitions against the use of particular
  267. encryption technologies?  Is Clipper the first step in this direction?
  268. A mandatory encryption regime raises profound constitutional questions.
  269. In the era where people work for "virtual corporations" and
  270. conduct personal and political lives in "cyberspace," the distinction
  271. between _communication_ of information and _storage_ of information is
  272. increasingly vague.  The organization in which one works may constitute
  273. a single virtual space, but be physically dispersed.  So, the papers and
  274. files of the organization or individual may be moved within the
  275. organization by means of telecommunications technology.  Instantaneous
  276. access to encryption keys, without prior notice to the communicating
  277. parties, may well constitute a secret search, if the target is a
  278. virtual corporation or an individual whose "papers" are physically
  279. dispersed.
  280. Wiretapping and other electronic surveillance has always been
  281. recognized as an exception to the fundamental Fourth Amendment
  282. prohibition against secret searches.  Even with a valid search warrant,
  283. law enforcement agents must "knock and announce" their intent to search
  284. a premises before proceeding.  Failure to do so violates the Fourth
  285. Amendment.  Until now, the law of search and seizure has made a sharp
  286. distinction between, on the one hand, _seizures_of_papers_ and other
  287. items in a person's physical possession, and on the other hand,
  288. _wiretapping_of_communications_.  Seizure of papers or personal effects
  289. must be conducted with the owner's knowledge, upon presentation of a
  290. search warrant.  Only in the exceptional case of wiretapping, may a
  291. person's privacy be invaded by law enforcement without simultaneously
  292. informing that person.
  293. Proposals to regulate the use of cryptography for the sake of law
  294. enforcement efficiency should be viewed carefully in the centuries old
  295. tradition of privacy protection.
  296.  
  297. E.Voluntary escrow system will not meet law enforcement needs
  298.  ----------------------------------------------------------------
  299.  
  300. Finally, despite all of the troubling aspects of the Clipper
  301. proposal, it is by no means clear that it will even solve the problems
  302. that law enforcement has identified.  The major stated rationale for
  303. government intervention in the domestic encryption arena is to ensure
  304. that law enforcement has access to criminal communications, even if they
  305. are encrypted.  Yet, a voluntary scheme seems inadequate to meet this
  306. goal.  Criminals who seek to avoid interception and decryption of their
  307. communications would simply use another system, free from escrow
  308. provisions.  Unless a government-proposed encryption scheme is
  309. mandatory, it would fail to achieve its primary law enforcement purpose.
  310. In a voluntary regime, only the law-abiding would use the escrow system.
  311.  
  312. III.Recent policy developments indicate that Administration policy is
  313.  ----------------------------------------------------------------------
  314.       bad for the NII, contrary to the Computer Security Act, and
  315.  ----------------------------------------------------------------
  316.       requires Congressional oversight
  317.  -------------------------------------
  318.  
  319. Along with the Clipper Chip proposal, the Administration announced
  320. a comprehensive review of cryptography and privacy policy.  Almost
  321. immediately after the Clipper announcement, the Digital Privacy and
  322. Security Working Group began discussions with the Administration on
  323. issues raised by the Clipper proposal and by cryptography in general.
  324. Unfortunately, this dialogue has been largely one-sided.  EFF and many
  325. other groups have provided extensive input to the Administration, yet
  326. the Administration has not reciprocated -- the promised policy report
  327. has not been forthcoming.  Moreover, the National Security Agency and
  328. the Federal Bureau of Investigation are proceeding unilaterally to
  329. implement their own goals in this critical policy area.
  330. Allowing these agencies to proceed unilaterally would be a grave
  331. mistake. As this subcommittee is well aware, the Computer Security Act
  332. of 1987 clearly established that neither military nor law enforcement
  333. agencies are the proper protectors of personal privacy.  When
  334. considering the law, Congress asked, "whether it is proper for a super-
  335. secret agency [the NSA] that operates without public scrutiny to involve
  336. itself in domestic activities...?"  The answer was a clear "no."  Recent
  337. Administration announcements regarding the Clipper Chip suggest that the
  338. principle established in the 1987 Act has been circumvented.
  339. As important as the principle of civilian control was in 1987, it
  340. is even more critical today.  The more individuals around the country
  341. come to depend on secure communications to protect their privacy, the
  342. more important it is to conduct privacy and security policy dialogues in
  343. public, civilian forums.
  344. The NII can grow into the kind of critical, national resource
  345. which this Administration seeks to promote only if major changes in
  346. current cryptography and privacy policy.  In the absence of such
  347. changes, digital technology will continue to rapidly render our
  348. commercial activities and communications -- and, indeed, much of our
  349. personal lives -- open to scrutiny by strangers.  The Electronic
  350. Frontier Foundation believes that Americans must be allowed access
  351. to the cryptographic tools necessary to protect their own privacy.
  352. We had hoped that the Administration was committed to making these
  353. changes, but several recent developments lead us to fear that the effort
  354. has been abandoned, leaving individual agencies to pursue their own
  355. policy agendas instead of being guided by a comprehensive policy.  The
  356. following issues concern us:
  357.  
  358. *Delayed Cryptography Policy Report
  359.  ---------------------------------------
  360.  
  361. The policy analysis called for along with the April 16, 1993
  362. Presidential Decision Directive has not been released, though it was
  363. promised to have been completed by early fall of 1993.  We had hoped
  364. that this report would be the basis for public dialogue on the important
  365. privacy, competitiveness, and law enforcement issues raised by
  366. cryptography policy.  To date, none of the Administration's policy
  367. rationale has been revealed to the public, despite the fact that
  368. agencies in the Executive Branch are proceeding with their own plan
  369.  
  370. *Escrowed Encryption Federal Information Processing Standard (FIPS)
  371.  -----------------------------------------------------------------------
  372.       approved against overwhelming weight of public comments
  373.   +-----------------------------------------------------------
  374.  
  375. The Presidential Decision Directive also called for consideration of a
  376. Federal Information Processing Standard (FIPS) for key-escrow
  377. encryption systems.  This process was to have been one of several
  378. forums whereby those concerned about the proposed key-escrow system
  379. could voice opinions.  EFF, as well as over 225 of our individual
  380. members, raised a number of serious concerns about the draft FIPS in
  381. September of this 1993.  EFF expressed its opposition to government
  382. implementation of key-escrow systems as proposed.  We continue to
  383. oppose the deployment of Skipjack family escrow encryption systems
  384. both because they violate fundamental First, Fourth, and Fifth
  385. amendment principles, and because they fail to offer users adequate
  386. security and flexibility.
  387.  
  388. Despite overwhelming opposition from over 300 commenters, the
  389. Department of Commerce recently approved FIPS 185.
  390.  
  391. *Large-Scale Skipjack Deployment Announced
  392.   +---------------------------------------------
  393.  
  394. At the December 9, 1993 meeting of the Computer Systems Security and
  395. Privacy Advisory Board, an NSA official announced plans to deploy from
  396. 10,000 to 70,000 Skipjack devices in the Defense Messaging System in
  397. the near future.  The exact size of the order was said to be dependent
  398. only on budget constraints.  The Administration is on record in the
  399. national press promising that no large-scale Skipjack deployment would
  400. occur until a final report of the Administration Task Force was
  401. complete.  Ten thousand units was set as the upper limit of initial
  402. deployment.  Skipjack deployment at the level planned in the Defense
  403. Messaging System circumvents both the FIPS notice and comments process
  404. which has been left in a state of limbo, as well as the Administration's
  405. promise of a comprehensive policy framework.
  406.  
  407. *New FBI Digital Telephony Legislation Proposed
  408.   +--------------------------------------------------
  409.  
  410. The FBI recently proposed a new "Digital Telephony" bill.  After initial
  411. analysis, we strongly oppose the bill, which would require all common
  412. carriers to construct their networks to deliver to law enforcement
  413. agencies, in real time, both the contents of all communications on their
  414. networks and the "signaling" or transactional information.
  415.  
  416. In short, the bill lays the groundwork for turning the National
  417. Information Infrastructure into a nation-wide surveillance system, to be
  418. used by law enforcement with few technical or legal safeguards.  This
  419. image is not hyperbole, but a real assessment of the power of the
  420. technology and inadequacy of current legal and technical privacy
  421. protections for users of communications networks.
  422.  
  423. Although the FBI suggests that the bill is primarily designed to
  424. maintain status quo wiretap capability in the face of technological
  425. changes, in fact, it seeks vast new surveillance and monitoring tools.
  426.  
  427. Lengthy delays on the promised policy report, along with these
  428. unilateral steps toward Clipper/Skipjack deployment, lead us to believe
  429. that Administration policy is stalled by the Cold War-era national
  430. security concerns that have characterized cryptography policy for the
  431. last several decades.
  432. EFF believes that it would be a disastrous error to allow national
  433. information policy -- now a critical component of domestic policy -- to
  434. be dictated solely by backward-looking national-security priorities and
  435. unsubstantiated law-enforcement claims.  The directions set by this
  436. Administration will have a major impact on privacy, information
  437. security, and the fundamental relationship between the government and
  438. individual autonomy.  This is why the Administration must take action--
  439. and do so before the aforementioned agencies proceed further--to ensure
  440. that cryptography policy is restructured to serve the
  441. interests of privacy and security in the National Information
  442. Infrastructure. We still believe the Administration can play the
  443. leadership role it was meant to play in shaping this policy. If it does
  444. not, the potential of the NII, and of fundamental civil liberties in the
  445. information age, will be threatened.
  446.  
  447. IV.Congressional oversight of cryptography & privacy policy is
  448.   +---------------------------------------------------------------
  449.       urgently needed to right the balance between privacy,
  450.   +---------------------------------------------------------
  451.       competitiveness & law enforcement needs
  452.   +-------------------------------------------
  453.  
  454. All participants in this debate recognize that the need for
  455. privacy and security is real, and that new technologies pose real
  456. challenges for law enforcement and national security operations.
  457. However, the solutions now on the table cripple the NII, pose grave
  458. threats to privacy, and fail to even meet law enforcement objectives.
  459. In our judgment, the Administration has failed, thus far, to articulate
  460. a comprehensive set of policies which will advance the goals upon
  461. which we all agree.
  462. Congress must act now to ensure that cryptography policy is
  463. developed in the context of the broader goal of promoting the
  464. development of an advanced, interoperable, secure, information
  465. infrastructure.
  466. In order to meet the privacy and security needs of the growing
  467. infrastructure, Congress should seek a set of public policies which
  468. promote the widespread availability of cryptographic systems according
  469. to the following criteria:
  470.  
  471. *Use Voluntary Standards to Promote Innovation and Meet
  472.   +----------------------------------------------------------
  473.       Diverse Needs:
  474.   +------------------
  475.  
  476. The National Information Infrastructure stretches to
  477. encompass devices as diverse as super computers, handheld personal
  478. digital assistants and other wireless communications devices, and plain
  479. old telephones.  Communication will be carried over copper wires, fiber
  480. optic cables, and satellite links.  The users of the infrastructure will
  481. range from elementary school children to federal agencies.  Encryption
  482. standards must be allowed to develop flexibly to meet the wide-ranging
  483. needs all components of the NII.  In its IITF Report, the Administration
  484. finds that standards also must be compatible with the large installed
  485. base of communications technologies, and flexible and adaptable enough
  486. to meet user needs at affordable costs. [_AA_, 9]  The diverse uses of
  487. the NII require that any standard which the government seeks to promote
  488. as a broadly deployed solution should be implementable in software as
  489. well as hardware and based on widely available algorithms.
  490.  
  491. *Develop Trusted Algorithms and End-to-End Security:
  492.   +-------------------------------------------------------
  493.  
  494. Assuring current and future users of the NII that their communications
  495. are
  496. secure and their privacy is protected is a critical task.  This means
  497. that the
  498. underlying algorithms adopted must have a high level of public trust and
  499. the overall systems put in place must be secure.
  500.  
  501. *Encourage National and International Interoperability:
  502.   +----------------------------------------------------------
  503.  
  504. The promise of the NII is seamless national and international
  505. communications of all types.  Any cryptographic standard offered for
  506. widespread use must allow US corporations and individuals to function as
  507. part of the global economy and global communications infrastructure.
  508.  
  509. *Seek Reasonable Cooperation with Law Enforcement and National
  510.   +-----------------------------------------------------------------
  511.       Security Needs:
  512.   +-------------------
  513.  
  514. New technologies pose new challenges to law enforcement and national
  515. security surveillance activities.  American industry is committed to
  516. working with law enforcement to help meet its legitimate surveillance
  517. needs, but the development of the NII should not be stalled on this
  518. account.
  519.  
  520. *Promote Constitutional Rights of Privacy and Adhere to Traditional
  521.   +----------------------------------------------------------------------
  522. Fourth Amendment Search and Seizure Rules:
  523.   +----------------------------------------
  524.  
  525. New technology can either be a threat or an aid to protection of
  526. fundamental privacy rights.  Government policy should promote
  527. technologies which enable individuals to protect their privacy and be
  528. sure that those technologies are governed by laws which respect the
  529. long history of constitutional search and seizure restraints.
  530.  
  531. *Maintain Civilian Control over Public Computer and
  532.   +------------------------------------------------------
  533.       Communications Security:
  534.  -----------------------------
  535.  
  536. In accordance with the Computer Security Act of 1987, development of
  537. security and privacy standards should be directed by the civilian
  538.  
  539. V.Conclusion
  540.  ---------------
  541.  
  542. Among the most important roles that the federal government has in
  543. NII deployment are setting standards and guaranteeing privacy and
  544. security.  Without adequate security and privacy, the NII will never
  545. realize it economic or social potential.  Cryptography policy must, of
  546. course, take into account the needs of law enforcement and national
  547. security agencies, but cannot be driven by these concerns alone.  The
  548. Working Group, along with other industry and public interest
  549. organizations, is committed to working with the Administration to
  550. solving the privacy and security questions raised by the growing NII.
  551. This must be done based on the principles of voluntary standards,
  552. promotion of innovation, concern for law enforcement needs, and
  553. protection of constitutional rights of privacy.
  554.  
  555. ------------------------------
  556.  
  557. Date: Fri, 6 May 1994 12:07:04 -0400 (EDT)
  558. From: Stanton McCandlish <mech@EFF.ORG>
  559. Subject: File 2--Whit Diffie testimony - Senate Clipper Hearing, May 3 1994
  560.  
  561.  
  562. Key Escrow: Its Impact and Alternatives
  563.  
  564.  
  565.                             Testimony of
  566. Dr. Whitfield Diffie
  567. Distinguished Engineer
  568. Sun Microsystems, Inc.
  569.  
  570.            Before the Subcommitee on Technology and the Law
  571.                   of the Senate Judiciary Committee
  572.  
  573.  
  574.                             3 May 1994
  575.  
  576. Dr. Diffie is also testifying on behalf of the Digital Privacy and
  577. Security Working Group, a group of more than 50 computer, communications
  578. and public interest organizations and associations working on
  579. communications privacy issues.
  580.  
  581.  
  582.  
  583.  I would like to begin by expressing my thanks to the chairman, the
  584. members of the committee, and the committee staff for the chance not
  585. only of appearing before this committee, but of appearing in such
  586. distinguished company.  It is a pleasure to be able to present not
  587. only my own concerns and those of Sun Microsystem, but to have the
  588. opportunity of representing the Digital Privacy and Security Working
  589. Group.
  590.  
  591.     I think it is also appropriate to say a few words about my
  592. experience in the field of communication security.  I first began
  593. thinking about cryptography while working at Stanford University in
  594. the late summer of 1972.  This subsequently brought me into contact
  595. with Professor Martin E. Hellman of the Electrical Engineering
  596. Department.  Marty and I worked together throughout the mid-1970s and
  597. discovered the family of techniques now known as public key
  598. cryptography.  It is these techniques that are directly responsible
  599. for the issue before the committee today.  Prior to public key
  600. cryptography, any large scale cryptographically secure system required
  601. trusted elements with the fundamental capability of decrypting any
  602. message protected by the system.  Public key cryptography eliminated
  603. the need for network subscribers to place this level of trust in any
  604. network element.  In so doing, it potentially reduced the subscribers'
  605. vulnerability to government wiretapping.  It is this vulnerability
  606. that the Escrowed Encryption Initiative, seeks to reintroduce.
  607.  
  608.     In 1978, I walked through the revolving door from academia to
  609. industry and for a dozen years was `Manager of Secure Systems
  610. Research' at Northern Telecom.  In 1991, I took my present position
  611. with Sun Microsystems.  This has allowed me an inside look at the
  612. problems of communication security from the viewpoints of both the
  613. telecommunications and computer industries.
  614.  
  615.  
  616. The Key Escrow Program
  617.  
  618.     Just over a year ago, the Administration revealed plans for a
  619. program of key escrow technology best known by the name of its
  620. flagship product the Clipper chip.  The program's objective is to
  621. promote the use of cryptographic equipment incorporating a special
  622. back door or trap door mechanism that will permit the
  623. Federal Government to decrypt communications without the knowledge or
  624. consent of the communicating parties when it considers this necessary
  625. for law enforcement or intelligence purposes.  In effect, the privacy
  626. of these communications will be placed in escrow with the Federal
  627. Government.
  628.  
  629.     The committee has asked me to address myself to this proposal and
  630. in particular to consider three issues:
  631.  
  632.       o Problems with key escrow, particularly in the area of privacy.
  633.  
  634.       o The impact of the key escrow proposal on American business
  635. both at home and abroad.
  636.  
  637.       o Alternatives to key escrow.
  638.  
  639.  
  640. Scope
  641.  
  642.     In the course of discussing the key escrow program over the past
  643. year, I have often encountered a piecemeal viewpoint that seeks to
  644. take each individual program at face value and treat it independently
  645. of the others.  I believe, on the contrary, that it is appropriate to
  646. take a broad view of the issues.  The problem confronting us is to
  647. assess the advisability of key escrow and its impact on our society.
  648. This requires examining the effect of private, commercial, and
  649. possibly criminal use of cryptography and the advisability and effect
  650. of the use of communications intelligence techniques by law
  651. enforcement.  In doing this, I will attempt to avoid becoming bogged
  652. down in the distinctions between the Escrowed Encryption Standard
  653. (FIPS185) with its orientation toward telephone communications and the
  654. CAPSTONE/TESSERA/MOSAIC program with its orientation toward
  655. computer networks.  I will treat these, together with the Proposed
  656. Digital Signature Standard and to a lesser extent the Digital
  657. Telephony Proposal, as a unified whole whose objective is to maintain
  658. and expand electronic interception for both law enforcement and
  659. national security purposes.
  660.  
  661.  
  662. Privacy Problems of Key Escrow
  663.  
  664.     When the First Amendment became part of our constitution in 1791,
  665. speech took place in the streets, the market, the fields, the office, the
  666. bar room, the bedroom, etc.  It could be used to express intimacy,
  667. conduct business, or discuss politics and it must have been recognized
  668. that privacy was an indispensable component of the character of many
  669. of these conversations.  It seems that the right --- in the case of
  670. some expressions of intimacy even the obligation --- of the
  671. participants to take measures to guarantee the privacy of their
  672. conversations can hardly have been in doubt, despite the fact that the
  673. right to speak privately could be abused in the service of crime.
  674.  
  675.     Today, telephone conversations stand on an equal footing with the
  676. venues available in the past.  In particular, a lot of political
  677. speech --- from friends discussing how to vote to candidates planning
  678. strategy with their aides --- occurs over the phone.  And, of all the
  679. forms of speech protected by the first amendment, political speech is
  680. foremost.  The legitimacy of the laws in a democracy grows out of the
  681. democratic process.  Unless the people are free to discuss the issues
  682. --- and privacy is an essential component of many of these discussions
  683. --- that process cannot take place.
  684.  
  685.     There has been a very important change in two hundred years, however.
  686. In the seventeen-nineties two ordinary people could achieve a high
  687. degree of security in conversation merely by the exercise of a little
  688. prudence and common sense.  Giving the ordinary person comparable
  689. access to privacy in the normal actions of the world today requires
  690. the ready availability of complex technical equipment.  It has been
  691. thoughtlessly said, in discussions of cryptographic policy, that
  692. cryptography brings the unprecedented promise of absolute privacy.  In
  693. fact, it only goes a short way to make up for the loss of an assurance
  694. of privacy that can never be regained.
  695.  
  696.     As is widely noted, there is a fundamental similarity between the
  697. power of the government to intercept communications and its ability to
  698. search premises.  Recognizing this power, the fourth amendment places
  699. controls on the government's power of search and similar controls have
  700. been placed by law on the use of wiretaps.  There is, however, no
  701. suggestion in the fourth amendment of a guarantee that the government
  702. will find what it seeks in a search.  Just as people have been free to
  703. to protect the things they considered private, by hiding them or storing
  704. them with friends, they have been free to protect their conversations
  705. from being overheard.
  706.  
  707.     The ill ease that most people feel in contemplating police use of
  708. wiretaps is rooted in awareness of the abuses to which wiretapping can
  709. be put.  Unlike a search, it is so unintrusive as to be invisible to
  710. its victim and this inherently undermines accountability.
  711. Totalitarian regimes have given us abundant evidence that the use of
  712. wiretaps and even the fear of their use can stifle free speech.  Nor
  713. is the political use of electronic surveillance a strictly foreign
  714. problem.  We have precedent in contemporary American history for its
  715. use by the party in power in its attempts to stay in power?
  716.  
  717.     The essence of the key escrow program is an attempt use the buying
  718. power and export control authority of government to promote standards
  719. that will deny ordinary people ready options for true protection of
  720. their conversations.  In a world where more and more communication
  721. take place between people who frequently can not meet face to face,
  722. this is a dangerous course of action.
  723.  
  724.  
  725.     The objections raised so far apply to the principle of key escrow.
  726. Objections can also be raised to details of the present proposal.  These
  727. deal with the secrecy of the algorithm, the impact on security of the
  728. escrow mechanism, and the way in which the proposal has been put into
  729. effect.
  730.  
  731. Secrecy of the SKIPJACK Algorithm
  732.  
  733.     An objection that has been raised to the current key escrow
  734. proposal is that the cryptographic algorithm used in the Clipper Chip
  735. is secret and is not available for public scrutiny.  One counter to
  736. this objection is that the users of cryptographic equipment are
  737. neither qualified to evaluate the quality of the algorithm nor, with
  738. rare exceptions, interested in attempting the task.  In a fundamental
  739. way, these objections miss the point.
  740.  
  741.     Within the national security establishment, responsibility for
  742. communication security is well understood.  It rests with NSA.  In
  743. industry, the responsibility is far more diffuse.  Individual users
  744. are not typically concerned with the functioning of pieces of
  745. equipment.  They acquire trust through a complex social web comprising
  746. standards, corporate security officers, professional societies, etc.
  747. A classified standard foisted on the civilian sector will have only
  748. one element of this process, Federal endorsement.
  749.  
  750.     One consequence of the use of a classified algoritym that is of
  751. particular concern to industry is the fact that the algorithm is only
  752. available in tamper resistant hardware.  Software is one of the most
  753. flexible and economical ways of building products known.  In typical
  754. computer engineering practice, the additional expense of implementing
  755. functions in hardware is only undertaken when the speed of software in
  756. not adequate for the task.  Often in these cases, more expensive,
  757. higher performance, hardware implementations interoperate with less
  758. expensive, lower performance versions.  Having a standard that can
  759. only be implemented in hardware will increase costs and damage
  760. interoperability.
  761.  
  762. Security Problems with Key Escrow
  763.  
  764.     From the viewpoint of a user, any key escrow system diminishes
  765. security.  It puts potential for access to the user's communications
  766. in the hands of an escrow agent who's intentions, policies, security
  767. capabilities, and future cannot be entirely known.  In the context of
  768. modern secure telephone systems, the contrast between escrowed and
  769. unescrowed communications is particularly stark.  In the process of
  770. setting up a secure call, modern secure telephones manufacture
  771. cryptographic keys that will be used for the protection of one and only
  772. one call and will be erased after the call is complete.  Public key
  773. cryptography has made it possible to do this in such a way that these
  774. keys, once erased, can never be recovered.  This give the users
  775. a degree of privacy similar to that in a face to face meeting.  The
  776. effect of key escrow is much like having a tape recorder on throughout
  777. the meeting.  Even if the tapes are very carefully protected, the
  778. people whose words they hold can never be certain that they will not
  779. someday be played to a much wider audience.
  780.  
  781.  
  782.     There are also specific vulnerabilities associated with the
  783. present proposal.
  784.  
  785.     The Skipjack algorithm uses 80-bit keys.  If it is as good as NSA
  786. claims, cryptanalyzing it will require searching through all these
  787. keys or doing about a million billion billion encryptions.  This makes
  788. it sixteen million times as hard to break as DES.  A telephone
  789. conversation would have to be valuable indeed to justify the expense
  790. of such a computation and it is quite plausible that this is entirely
  791. infeasible today.
  792.  
  793.     The problem is that in creating the Law Enforcement Access Field,
  794. or LEAF that implements key escrow, the Clipper chip also uses 80-bit
  795. keys.  This means that in order to be able to decode everything ever
  796. encrypted by a Clipper chip it is only necessary to do a little more
  797. than twice as much work as would be required to read any one message
  798. --- one cryptanalysis to recover a Session Key followed by one to
  799. recover the Device Unique Key.  A third cryptanalysis is needed to
  800. obtain the Family Key, but this need be done only once, since it is
  801. the same in all chips.
  802.  
  803.     The process is conceptually straightforward.
  804.  
  805.      1. Starting with a set of messages encrypted with a particular
  806. Clipper chip cryptanalyze the LEAF fields, by trying every
  807. key, until a key is found that produces a well formed
  808. plaintext from every LEAF.  This works because the LEAF
  809. specifically includes an authenticator designed to make well
  810. formed LEAFs recognizable.  Once the Family Key has been found
  811. it can be used in attacking any Clipper Chip and this process
  812. need not be repeated.
  813.  
  814.      2. Pick a message and decrypt its LEAF with the family key.
  815. Eighty bits of the result form a cryptogram whose plaintext
  816. is the Session Key used to encrypt the message.  Decrypt
  817. this field with every key in turn.  Try decrypting the message
  818. with each resulting 80-bit quantity to see if it is the
  819. correct session key.  When the correct session key is discovered,
  820. the key that produced it will be the correct Device Unique
  821. Key.
  822.  
  823.      3. The combination of the Family Key and the Device Unique Key
  824. can now be used to read any message ever encrypted by
  825. the Clipper chip under attack.
  826.  
  827.     It might be argued that the scenario described above requires
  828. knowing the SKIPJACK algorithm and the LEAF creation method, both of
  829. which are classified.  It is an article of faith, however, in
  830. communications security that nothing that stays constant for a long
  831. period of time can be counted on to remain secret.  With the passage
  832. of time, the chances that the chips will be reverse engineered
  833. increases.
  834.  
  835. Irregularities in Adoption of the Standard
  836.  
  837.     Finally, there are disturbing aspects to the development of the
  838. key escrow FIPS.  Under the Computer Security Act of 1987,
  839. responsibility for security of civilian communications rests with the
  840. National Institute of Standards and Technology.  Pursuant to this
  841. statute, the Escrowed Encryption Standard appeared as Federal
  842. Information Processing Standard 185, under the auspices of the
  843. Commerce Department.  Apparently, however, authority over the secret
  844. technology underlying the standard and the documents embodying this
  845. technology, continues to reside with NSA.  We thus have a curious
  846. arrangement in which a Department of Commerce standard seems to be
  847. under the effective control of a Department of Defense agency.  This
  848. appears to violate at least the spirit of the Computer Security Act
  849. and strain beyond credibility its provisions for NIST's making use of
  850. NSA's expertise.
  851.  
  852.  
  853. Impact on Business
  854.  
  855.     Business today is characterized by an unprecedented freedom and
  856. volume of travel by both people and goods.  Ease of communication,
  857. both physical and electronic, has ushered in an era of international
  858. markets and multinational corporations.  No country is large enough
  859. that its industries can concentrate on the domestic market to the
  860. exclusion of all others.  When foreign sales rival or exceed domestic
  861. ones, the structure of the corporation follows suit with new divisions
  862. placed in proximity to markets, materials, or labor.
  863.  
  864.     Security of electronic communication is as essential in this
  865. environment as security of transportation and storage have been to
  866. businesses throughout history.  The communication system must ensure
  867. that orders for goods and services are genuine, guarantee that
  868. payments are credited to the proper accounts, and protect the privacy
  869. of business plans and personal information.
  870.  
  871.     Two new factors are making security both more essential and more
  872. difficult to achieve.  The first is the rise in importance of
  873. intellectual property.  Since much of what is now bought and sold is
  874. information varying from computer programs to surveys of customer
  875. buying habits, information security has become an end in itself rather
  876. than just a means for ensuring the security of people and property.
  877. The second is the rising demand for mobility in communications.
  878. Traveling corporate computer users sit down at workstations they have
  879. never seen before and expect the same environment that is on the desks
  880. in their offices.  They carry cellular telephones and communicate
  881. constantly by radio.  They haul out portable PCs and dial their home
  882. computers from locations around the globe.  With each such action they
  883. expose their information to threats of eavesdropping and falsification
  884. barely known a decade ago.
  885.  
  886.     Because this information economy is relentlessly global, no nation
  887. can successfully isolate itself from international competition.  The
  888. communication systems we build will have to be interoperable with
  889. those of other nations.  A standard based on a secret American
  890. technology and designed to give American intelligence access to the
  891. communications it protects seems an unlikely candidate for widespread
  892. acceptance.  If we are to maintain our leading position in the
  893. information market places, we much give our full support to the
  894. development of open international security standards that protect the
  895. interests of all parties fairly.
  896.  
  897.  
  898. Potential for Excessive Regulation
  899.  
  900.     The key escrow program also presents the specter of increased
  901. regulation of the design and production of new computer and
  902. communications products.  FIPS185 states that `Approved
  903. implementations may be procured by authorized organizations for
  904. integration into security equipment.'  This raises the question of
  905. what organizations will be authorized and what requirements will be
  906. placed upon them?  Is it likely that people prepared to require that
  907. surveillance be built into communication switches would shrink from
  908. requiring that equipment make pre-encryption difficult as a condition
  909. for getting `approved implementations'?  Such requirements have been
  910. imposed as conditions of export approval for security equipment.
  911. Should industry's need to acquire tamper resistant parts force it to
  912. submit to such requirements, key escrow will usher in an era of
  913. unprecedented regulation of American development and manufacturing.
  914.  
  915.  
  916. Alternatives to Key Escrow
  917.  
  918.     It is impossible to address the issue of alternatives to key
  919. escrow, without asking whether there is a problem, what the problem
  920. is and what solution, if any, the problem requires.
  921.  
  922.     In recent testimony before this committee, the FBI has portrayed
  923. communications interception as an indispensable tool of police work
  924. and complained that the utility of this tool is threatened by
  925. developments in modern communications.  This testimony, however, uses
  926. the broader term `electronic surveillance' almost exclusively and
  927. appears to include some cases in which the electronic surveillance
  928. consisted of bugs rather than wiretaps.  Although the FBI testimony
  929. speaks of numerous of convictions, it names not a single defendant,
  930. court, case, or docket number.  This imprecision makes adequate study
  931. of the testimony impossible and leaves open two issues: the
  932. effectiveness of communications interception in particular and that of
  933. electronic surveillance in general.
  934.  
  935.     On balance, it appears more likely that the investigative and
  936. evidential utility of wiretaps is rising than that it is falling.
  937. This is partly because criminals, like law abiding citizens, do more
  938. talking on the phone these days.  It is partly because modern
  939. communication systems, like ISDN, provide much more information about
  940. each call, revealing where it came from in real time even when it
  941. originated a long way away.  This detailed information about who
  942. called whom, when, and for how long, that modern switches provide,
  943. improves the PEN register and trap and trace techniques that police
  944. use to map the extent of criminal conspiracies.  It is unaffected by
  945. any encryption that the callers may apply.
  946.  
  947.     With respect to other kinds of electronic surveillance, the
  948. picture for law enforcement looks even brighter.  Miniaturization of
  949. electronics and improvements in digital signal processing are making
  950. bugs smaller, improving their fidelity, making them harder to detect,
  951. and making them more reliable.  Forms of electronic surveillance for
  952. which no warrant is held to be necessary, particularly TV cameras in
  953. public places, have become widespread.  This creates a base of
  954. information that was, for example, used in two distinct ways in the
  955. Tylenol poisoning case of the mid-1980s.
  956.  
  957.     Broadening the consideration of high tech crime fighting tools to
  958. include vehicle tracking, DNA fingerprinting, individual recognition
  959. by infrared tracing of the veins in the face, and database profiling,
  960. makes it seem unlikely that the failures of law enforcement are due
  961. to the inadequacy of its technical tools.
  962.  
  963.     If we turn our attention to foreign intelligence, we see a similar
  964. picture.  Communications intelligence today is enjoying a golden age.
  965. The steady migration of communications from older, less accessible,
  966. media, both physical and electronic, has been the dominant factor.
  967. The loss of information resulting from improvements in security has
  968. been consistently outweighed by the increased volume and quality of
  969. information available.  As a result, the communications intelligence
  970. product has been improving for more than fifty years, with no end in
  971. sight.  The rising importance of telecommunications in the life of
  972. industrialized countries coupled with the rising importance of
  973. wireless communications, can be expected to give rise to an
  974. intelligence bonanza in the decades to come.
  975.  
  976.     Mobile communication is one of the fastest growing areas of the
  977. telecommunications industry and the advantages of cellular phones,
  978. wireless local area networks, and direct satellite communication
  979. systems are such that they are often installed even in applications
  980. where mobility is not required.  Satellite communications are in
  981. extensive use, particularly in equatorial regions and cellular
  982. telephone systems are being widely deployed in rural areas throughout
  983. the world in preference to undertaking the substantial expense of
  984. subscriber access wiring.
  985.  
  986.     New technologies are also opening up new possibilities.  Advances
  987. in emitter identification, network penetration techniques, and the
  988. implementation of cryptanalytic or crypto-diagnostic operations within
  989. intercept equipment are likely to provide more new sources of
  990. intelligence than are lost as a result of commercial use of
  991. cryptography.
  992.  
  993.     It should also be noted that changing circumstances change
  994. appropriate behavior.  Although intelligence continues to play a vital
  995. role in the post cold war world, the techniques that were appropriate
  996. against an opponent capable of destroying the United States within
  997. hours may not be appropriate against merely economic rivals.
  998.  
  999.     If, however, that we accept that some measure of control over
  1000. the deployment of cryptography is needed, we must distinguish two
  1001. cases:
  1002.  
  1003. The use of cryptography to protect communications and
  1004.  
  1005. The use of cryptography to protect stored information.
  1006.  
  1007.  
  1008. It is good security practice in protecting communications to keep any
  1009. keys that can be used to decipher the communications for as short a
  1010. time as possible.  Discoveries in cryptography in the past two decades
  1011. have made it possible to have secure telephones in which the keys last
  1012. only for the duration of the call and can never be recreated,
  1013. thereafter.  A key escrow proposal surrenders this advantage by
  1014. creating a new set of escrowed keys that are stored indefinitely and
  1015. can always be used to read earlier traffic.
  1016.  
  1017.     With regard to protection of stored information, the situation is
  1018. quite different.  The keys for decrypting information in storage must
  1019. be kept for the entire lifetime of the stored information; if they are
  1020. lost, the information is lost.  An individual might consider
  1021. encrypting files and trusting the keys to memory, but no organization
  1022. of any size could risk the bulk of its files in this fashion.  Some
  1023. form of key archiving, backup, or escrow is thus inherent in the use
  1024. of cryptography for storage.  Such procedured will guarantee that
  1025. encrypted files on disks are accessible to subpoena in much the same
  1026. way that file on paper are today.
  1027.  
  1028.     Many business communications, such as electronic funds transfers,
  1029. fall into an intermediate category.  Although the primary purpose is
  1030. communication rather than storage, the transactions are of a formal
  1031. nature.  In these cases, an escrow mechanism much like those in
  1032. current commercial use may be appropriate.  In a high value
  1033. transaction, where the buyer and seller do not have an established
  1034. business relationship, either party may demand the use of a mutually
  1035. trusted escrow agent who will take temporary custody of both the goods
  1036. and the payment.  In a similar fashion, either party to an encrypted
  1037. transaction might demand that only keys escrowed with a mutually
  1038. acceptable escrow agent be used.
  1039.  
  1040.     What is most important here is that the laws, customs, and
  1041. practices governing electronic commerce and, in a broader context,
  1042. electronic society are just beginning to develop.  It is likely that
  1043. escrow mechanisms will be among the tools employed.  It is, however,
  1044. too early to say what form they should take.  They will need to be
  1045. worked out as society gets more experience with the new communications
  1046. media.  They should not be imposed by government before society's real
  1047. needs have been determined.
  1048.  
  1049.  
  1050. Conduct of the Key Escrow Initiative
  1051.  
  1052.     In my experience, the people who support the key escrow initiative
  1053. are inclined to express substantial trust in the government.  I find
  1054. it ironic therefore that in its conduct of this program, the
  1055. administration has followed a course that could hardly have been
  1056. better designed to provoke distrust.  The introduction of mechanisms
  1057. designed to assure the governments ability to conduct electronic
  1058. surveillance on its citizens and limit the ability of the citizens to
  1059. protect themselves against such surveillance is a major policy
  1060. desision of the information age.  It has been presented, however, as a
  1061. technicality, buried in an obscure series of regulations.  In so
  1062. doing, it has avoided congressional consideration of either its
  1063. objectives or its budget.  The underlying secrecy of the technology
  1064. has been used as a tool for doleing out information piecemeal and
  1065. making a timely understanding of the issues difficult to achieve.
  1066.  
  1067.  
  1068. Suppose We Make a Mistake
  1069.  
  1070.     In closing, I would like to ask a question.  Suppose we make a
  1071. mistake?
  1072.  
  1073.       o Suppose we fail to adopt a key excrow system and later
  1074. decide that one is needed?
  1075.  
  1076.       o Suppose we adopt a key escrow system now when none is
  1077. needed?
  1078.  
  1079. Which would be the more serious error?
  1080.  
  1081.     It is generally accepted that rights are not absolute.  If private
  1082. access to high-grade encryption presented a clear and present danger to
  1083. society, there would be little political opposition to controlling it.
  1084. The reason there is so much disagreement is that there is so little
  1085. evidence of a problem.
  1086.  
  1087.     If allowing or even encouraging wide dissemination of high-grade
  1088. cryptography proves to be a mistake, it will be a correctable mistake.
  1089. Generations of electronic equipment follow one another very quickly.
  1090. If cryptography comes to present such a problem that there is popular
  1091. consensus for regulating it, this will be just as possible in a decade
  1092. as it is today.  If on the other hand, we set the precedent of
  1093. building government surveillance capabilities into our security
  1094. equipment we risk entrenching a bureaucracy that will not easily
  1095. surrender the power this gives.
  1096.  
  1097.  
  1098. Recommendation
  1099.  
  1100.     In light of these considerations, I would like to suggest that the
  1101. Federal Standards making process should be brought back into line with
  1102. the intent of the Computer Security Act of 1987.  Congres should press
  1103. the National Institute of Standards and Technology, with the
  1104. cooperation of the National Security Agency, to declassify the
  1105. SKIPJACK algorithm and issue a revised version of FIPS 185 that
  1106. specifies the algorithm and omits the key escrow provisions.  This would
  1107. be a proper replacement for FIPS 46, the Data Encryption Standard, and
  1108. would serve the needs of the U.S. Government, U.S. industry, and U.S.
  1109. citizens for years to come.
  1110.  
  1111.  
  1112. Notes
  1113.  
  1114.     I have examined some aspects of the subjects treated here at
  1115. greater length in other testimony and comments and copies of these
  1116. have been made available to the committee.
  1117.  
  1118. "The Impact of Regulating Cryptography on the Computer and
  1119. Communications Industries" Testimony Before the House Subcommittee on
  1120. Telecommunications and Finance, 9 June 1993.
  1121.  
  1122. "The Impact of a Secret Cryptographic Standard on Encryption,
  1123. Privacy, Law Enforcement and Technology" Testimony Before the House
  1124. Subcommittee on Science and Technology, 11 May 1993
  1125.  
  1126. Letter to the director of the Computer Systems Laboratory at the
  1127. National Institute of Standards and Technology, commenting on the
  1128. proposed Escrowed Encryption Standard, 27 September 1993.
  1129.  
  1130.  
  1131. ------------------------------
  1132.  
  1133. End of Computer Underground Digest #6.44
  1134. ************************************
  1135.  
  1136.  
  1137.