home *** CD-ROM | disk | FTP | other *** search
/ The Hacker's Encyclopedia 1998 / hackers_encyclopedia.iso / pc / crypto / crypto_2.txt < prev    next >
Encoding:
Text File  |  2003-06-11  |  20.5 KB  |  377 lines

  1.  
  2. Go vernmental Restrictions on the Development and Dissemination of
  3. Cryptographic Technologies: The Controversy Over NIST Standardization on
  4. DSS and Related Intellectual Property Issues
  5.  
  6. Twentieth Annual Telecommunications Policy Research Conference Solomons
  7. Island, Maryland September 12 - 14, 1992
  8.  
  9. David L. Sobel Computer Professionals for Social Responsibility 666
  10. Pennsylvania Avenue, S.E. Washington, DC 20003 (202) 54 -9240 Internet:
  11. sobel@washofc.cpsr.org
  12.  
  13.  
  14. On August 30, 1991, the National Institute of Standards and Technology
  15. ("NIST") published a notice in the Federal Register proposing a federal
  16. digital signature standard ("DSS").  The NIST proposal, and details of the
  17. standard setting process that recently have come to light, raise substantial
  18. questions concerning the future of U.S. information policy in general and
  19. cryptographic technology in particular.
  20.  
  21. The DSS provides a means of authenticating the integrity of electronically
  22. transmitted data and the identity of the sender.  According to NIST, the
  23. standard is "applicable to all federal departments and agencies for the
  24. protection of unclassified information, " and is "intended for use in
  25. electronic mail, electronic funds transfer, electronic data interchange,
  26. software distribution, data storage, and other applications which require
  27. data integrity assurance and data origin authentication."/
  28.  
  29. /1/ With governmental and commercial transactions increasingly dependent upon
  30. the reliability and integrity of such telecommunications applications,
  31. authentication techniques are in dispensable.  As NIST's Associate Director
  32. for Computer Security, Lynn McNulty, has said, digital signature technology
  33. "will be an important part of re-engineering the business practices that we've
  34. used for so many years in government and other parts of society.
  35.  
  36. ...  The signature will be absolutely critical in certain areas where, because
  37. of statute or practice, we currently require a written signature on paper."/
  38.  
  39. /2/While use of the proposed DSS would be mandatory only for federal agencies,
  40. its adoption by the government would have a su bstantial impact on the private
  41. sector.  Vendors will need to offer products for the government that meet the
  42. federal standard and are thus likely to design all of their products to
  43. conform to its re qu irements.
  44.  
  45. /3/ Thus, the Data Encryption Standard ("DES"), which was adopted by NIST's pr 
  46. edecessor, the National Bureau of Standards, as a government standard in 1977,
  47. was quickly adopted by the American National Standards Institute and became
  48. the worldwide industry standard.
  49.  
  50. In its Federal Register notice, NIST stated that it had selected the DSS after
  51. evaluating several alternatives and that the agency had "followed the mandate
  52. contained in section 2 of the Computer Security Act of 1987 that NIST develop
  53. standards and guidelines to ' ...  assure the cost-effective security and
  54. privacy of sensitive information in Federal systems.  '"/4/
  55.  
  56. The reference to the Computer Security Act was significant because, in 
  57. enacting the statute, Congress sought to vest civilian computer security
  58. authority in NIST and to limit the role of the National Security Agency
  59. ("NSA").
  60.  
  61. /5/ When Congress enacted the le gislation, it expressed particular concern 
  62. that NSA, a military in telligence agency, would improperly limit public 
  63. access to in formation in a manner in compatible with civilian standard
  64. setting.
  65.  
  66. /6/ The House Report notes that NSA's natural tendency to restrict and even 
  67. deny access to in formation that it deems important would disqualify that 
  68. agency from being put in charge of the protection of non-national security in
  69. formation in the view of many officials in the civilian agencies and the
  70. private sector.
  71.  
  72. NSA's reputation for excessive secrecy is well-known and well- deserved.  In 
  73. the years following the Second World War, the making and breaking of secret 
  74. codes became in creasingly important to the U.  S.  national security es ta 
  75. blishment.
  76.  
  77. /7/ The National Security Agency, based at Fort George C.  Meade, Maryland, 
  78. was created by order of President Truman in 1952 and tasked with primary
  79. responsibility for co mm unications in telligence (COMINT) - - intercepting
  80. and deciphering the secret communications of foreign governments.  By some
  81. accounts, NSA is capable of acquiring and automatically scanning most, if
  82. not all, of the electronic messages that enter, leave or transit the United
  83. States.
  84.  
  85. /8/ The agency itself refuses to confirm or deny published information 
  86. concerning its capabilities.
  87.  
  88. In the 40 years since its creation, NSA has enjoyed a virtual monopoly in the 
  89. area of cryptographic technology within the United States.  Believing its 
  90. mission requires that such technology be closely held, the agency has actively 
  91. sought to maintain its monopoly and to suppress the private, non-governmental 
  92. de velopment and dissemination of cryptography.  The motivation behind NSA's
  93. efforts to suppress cryptographic know-how is obvious -- as the ability to
  94. securely encrypt in formation becomes more widespread, the agency's collection
  95. work becomes more difficult and time-consuming.
  96.  
  97. NSA's efforts to maintain its monopoly have extended into the area of export
  98. and trade policy.  The export of software products containing cryptographic
  99. features is governed by the International Traffic in Arms Regulations
  100. ("ITAR"), administered by the Office of Defense Trade Controls at the
  101. Department of State.  
  102.  
  103. /9/ In addition to software products sp ecifically designed for military
  104. purposes, the ITAR "Munitions List" includes a wide range of commercial
  105. software containing encryption capabilities.  
  106.  
  107. /10/ Under the export licensing scheme, the NSA reviews license applications
  108. for "information security technologies" covered by ITAR./11/
  109.  
  110. While the agency denies the charges, industry representatives claim that 
  111. NSA-imposed restrictions are stifling innovation in an area that is in 
  112. creasingly important to the computer industry.  They further contend that the 
  113. controls on the export of encryption technology are forcing U.S.  companies to 
  114. lose markets to foreign competitors.  As economics writer Robert Kuttner has 
  115. noted, restricting the ability of domestic manufacturers to commercialize and 
  116. export new technologies no longer assures that advanced technologies will stay 
  117. out of unfriendly hands: it only diverts the business to Japanese or European 
  118. ma nu facturers who don't share America's view of technological security.
  119.  
  120. This has the most far-reaching implications for American competitiveness, 
  121. because it is precisely the most militarily sensitive technologies -- super- 
  122. computers, semiconductor architecture and fabrication, fiber-optics, advanced 
  123. machine tools, cryptography -- that are also key to the competitiveness of
  124. America's commercial industry.
  125.  
  126. /12/ Considerations of "national security" can also play a role in the patent 
  127. system and inhibit the technological innovation that system is intended to 
  128. foster.  The Invention Secrecy Act, a little-known provision enacted in 1952 
  129. (the year of NSA's birth), authorizes the Commissioner of Patents and 
  130. Trademarks to withhold a patent and order that aninvention be kept secret "for 
  131. such period as the national interest requires." Violation of a patent secrecy 
  132. order is punishable by two years' imprisonment and a $10,000 fine.  
  133.  
  134. /13/ As a Justice Department representative told a congressional subcommittee 
  135. in 1980, "what the Invention Secrecy Act says in effect is that there are some 
  136. inventions that are too dangerous to be disclosed in the way that a patent 
  137. normally discloses the invention
  138. ...."
  139.  
  140. /14/ The number of secrecy orders issued under the Invention Secrecy Act 
  141. remained relatively constant from 1952 until 1979.  Since then, the number of 
  142. active secrecy orders has increased: a total of 4,685 orders were in effect in 
  143. 1986 compared with 3,513 in 1979.  
  144.  
  145. /15/ While in formation concerning the substance of patent secrecy orders is
  146. obviously difficult to obtain, cryptographic technology clearly has been the
  147. subject of many such orders issued at the insistence of NSA.  
  148.  
  149. /16/ These re strictions in effect exempt cr yptography from the underlying
  150. purpose of the patent system: to "stimulate ideas and the eventual de
  151. velopment of further significant advances in the art."
  152.  
  153. /17/ NSA's objective has been to suppress, rather than stimulate, advances in 
  154. civilian cr yp tography.  As noted, Congress was cognizant of NSA's propensity 
  155. toward excessive secrecy when it passed the Computer Security Act and sought 
  156. to remove the impediments to technological innovation in the civilian sector.  
  157. Congress sp ecifically intended to "greatly restrict" the influence of the 
  158. military in telligence agencies "while at the same time providing a statutory 
  159. mandate for a strong security program headed up by [NIST], a civilian agency."
  160.  
  161. /18/ The House Report on the legislation noted that NSA's involvement in the 
  162. development of civilian computer standards could have a chilling effect on the 
  163. vigorous research and development that is on-going in the academic community 
  164. and our domestic computer industry.  This industry has been one of the most 
  165. viable segments of our economy.  Its rapid technological advances have been 
  166. due in large part to being free to openly exchange ideas without government 
  167. interference.  NSA's inherent tendency to classify everything at its highest 
  168. level is bound to conflict with this broader goal.  The de velopment of the 
  169. digital signature standard is, to a large extent, the first real test of the 
  170. Computer Security Act. Unfortunately, in formation that has recently come to
  171. light suggests that the barrier Congress sought to erect between the civilian
  172. and military agencies can easily be breached.
  173.  
  174. The Federal Register notice announcing the proposed DSS last August made no
  175. explicit reference to NSA and clearly implied that NIST had developed the
  176. standard.  In an effort to analyze the federal standard setting process,
  177. Computer Professionals for Social Responsibility ("CPSR") submitted a Freedom
  178. of In formation Act request to NIST for records related to DSS.  In response
  179. to the request, the agency initially asserted that all of the materials
  180. related to the evaluation of technology in choosing a digital signature
  181. standard for computer security are documents that are advisory and pr ed
  182. ecisional in nature, and are therefore exempt from disclosure under [FOIA].
  183. In addition, some of the materials pertain to pending patent ap plications and
  184. are withheld under [FOIA] ...  [and] are also protected under the provisions
  185. of [patent law].
  186.  
  187. /19/ After CPSR filed suit in federal court to compel disclosure of the DSS
  188. materials, NIST ac knowledged for the first time that the bulk of relevant
  189. documents in its possession in fact originated with NSA - - 142 pages of
  190. material were created by NIST while 1,138 pages were created by NSA.
  191.  
  192. /20/ For reasons not explained by the agency, NIST dropped its FOIA exemption
  193. claims and released 140 pages of its own material and referred the remaining
  194. documents to NSA for processing.
  195.  
  196. In response to news media scrutiny, NSA has now also acknowledged the leading
  197. role it played in developing the proposed DSS.  In a letter to MacWeek
  198. magazine, NSA's Chief of In formation Policy acknowledged that the agency
  199. "evaluated and provided candidate algorithms including the one ultimately
  200. selected by NIST."
  201.  
  202. /21/ While NSA steadfastly insists that its role in developing the digital
  203. signature standard is consistent with the letter of the Computer Security Act,
  204. the fact that the agency actually "provided" the DSS algorithm to NIST raises
  205. questions as to whether the spirit of the legislation has been followed.
  206.  
  207. At least one authoritative observer does not believe it has. Rep. Jack Brooks,
  208. who was a driving force behind the Computer Security Act while serving as
  209. Chairman of the House Government Operations Committee (and who now serves as
  210. Chairman of the Judiciary Co mmittee), recently held hearings on DSS.  He
  211. noted that under the Computer Security Act of 1987, the Department of Commerce
  212. [through NIST] has primary responsibility for establishing computer security
  213. standards including those dealing with cryptography.  However, many in
  214. industry are concerned that in spite of the Act, the NSA continues to control
  215. the Commerce De partment's work in this area.  For example, Commerce (at the
  216. urging of the National Security Agency) has proposed a "digital signature
  217. standard" (DSS) that has been severely criticized by the computer and
  218. telecommunications industry.
  219.  
  220. /22/ The criticism of DSS alluded to by Rep.  Brooks goes to the heart of the
  221. matter -- whether NSA's in volvement in the standard setting process has
  222. resulted in the adoption of a flawed standard.  Comments submitted to NIST by
  223. industry and academic cryptography experts were overwhelmingly critical of the
  224. proposed DSS.  The vast majority of these experts expressed the view that the
  225. proposed standard is inferior to the established and widely used RSA
  226. public-key te chnology, which many have ch ar acterized as the de facto
  227. international standard.
  228.  
  229. /23/
  230.  
  231. Professor Martin Hellman of Stanford University, the co-inventor of publi-key 
  232. cryptography, wrote that he was "deeply concerned by faults in the technical 
  233. specifications of the proposed DSS and by its development process." He noted 
  234. that NIST has lost considerable credibility with the non-military cr yp 
  235. tographic research community and, unless the revision process of DSS is 
  236. carried out in a much more rapid and open fashion, NIST is likely to become 
  237. totally in effective in the setting of cryptographic standards.
  238.  
  239. /24/ NIST documents released to CPSR under the Freedom of Information Act 
  240. suggest that the agency's own experts recognized the superiority of the 
  241. existing RSA technology and its status as an emerging de facto authentication
  242. standard.  An internal NIST evaluation of existing technology conducted in
  243. late 1989 noted that the RSA technique is "widely known and widely used" and
  244. is "a most versatile public-key cryptosystem."
  245.  
  246. /25/ Indeed, IEEE Spectrum magazine recently reported that the RSA technique 
  247. had been readied by NIST as the [federal] standard for several months and was 
  248. dropped in December 1989 with no al ternative in sight.  Not until early 
  249. spring of 1991 did NSA present the algorithm of choice to NIST.  Even on
  250. background, sources declined to detail reasons behind the decision, although
  251. one mentioned that legitimate national security factors had come into play.
  252.  
  253. /26/ The questions surrounding DSS -- both technical and procedural -- are so
  254. significant that even NIST's Computer System Security and Privacy Advisory
  255. Board has expressed reservations about the proposed standard.  The Board has
  256. called for a "national level public review" of cryptography policy and has
  257. deferred approval of the proposed DSS "pending progress on the national
  258. review."
  259.  
  260. /27/ The Undersecretary of Commerce for Technology, Dr. Robert M.  White, 
  261. agreed with the Board's recommendation and called upon NIST to organize a 
  262. public workshop on cryptography issues.  A three-day session is scheduled to 
  263. begin on September 15 at NIST's headquarters in Gaithersburg, Maryland.
  264.  
  265. This review of national cryptography policy comes at a critical time.  In the 
  266. Cold War atmosphere that prevailed for 45 years, cryptography was seen as a 
  267. vital national interest and most policymakers were willing to permit the 
  268. National Security Agency and the military establishment to maintain a monopoly 
  269. in the field.  With the end of the Cold War, the military and intelligence
  270. considerations have changed.  Indeed, Congress recognized the need for reform
  271. when it enacted the Computer Security Act in 1987, even before the demise of
  272. the Soviet Union.
  273.  
  274. Electroniccommunications are now widely used in the civilian sector and have 
  275. become an integral component of the global economy.  Computers store and 
  276. exchange an ever increasing amount of highly personal in formation, including 
  277. medical and financial data.  In this electronic environment, the need for 
  278. privacy- enhancing technologies is apparent.  Communications applications such 
  279. as electronic mail and electronic funds transfers require secure means of 
  280. encryption and authentication -- goals that can be achieved only through the 
  281. robust development and dissemination of cryptographic technology free of 
  282. military interference.  To that end, the role of the National Security Agency 
  283. in civilian cryptography should be eliminated and NIST should be granted the 
  284. authority and resources to assist, rather than hinder, the development of
  285. civilian cryptography in the United States.
  286.  
  287. *F ootnotes*
  288.  
  289. 1 56 Fed.  Reg. 42981 (August 30, 1991).
  290.  
  291. 2 "Lynn McNulty on Infosecurity Standards: A Talk with NIST's Protection
  292. Point Man, " ISPNews, (September/October 1992) at 6.
  293.  
  294. 3 See Wright, The Law of Electronic Commerce (Little, Brown 1991) at 192-193.
  295.  
  296. 4 56 Fed.  Reg. 42981 (August 30, 1991).
  297.  
  298. 5 See "The Computer Security Act of 1987 (P.L.  100-235) and the Memorandum of 
  299. Un de rstanding Between the National Institute of Standards and Technology 
  300. (NIST) and the National Security Agency (NSA)," the Subcommittee on Le 
  301. gislation and National Security, Committee on Government Operations, House of 
  302. Representatives, May 4, 1989 (testimony of Marc Rotenberg, CPSR Washington
  303. Office Director) reprinted in Military and Security Control of Computer
  304. Security Issues, 101st Cong., 1st Sess.  (1989) at 80.
  305.  
  306. 6 H. Rep.  No. 153 (Part 2), 100th Cong., 1st Sess. 21 (1987).
  307.  
  308. 7 See generally Kahn, The Codebreakers (Macmillan 1967).
  309.  
  310. 8 Burnham, The Rise of the Computer State (Random House 1980), at 126.  See 
  311. generally Bamford, The Puzzle Palace (Houghton Mifflin 1982); "The National 
  312. Security Agency and Fourth Amendment Rights," Hearings before the Senate 
  313. Select Committee to Study Governmental Operations with Respect to Intelligence
  314. Activities, 94th Cong., 1st Sess.  (1975).
  315.  
  316. 9 22 CFR Parts 120- 130.
  317.  
  318. 10 See generally, Greguras and Black, "The Encryption Export Maze: Red Tape, 
  319. Requirements, Re strictions," INFOSecurity Product News (June 1992).
  320.  
  321. 11 Adam, "C ry ptography = Privacy?," IEEE Spectrum, August 1992 at 34 
  322. (reprinted statement of NSA).
  323.  
  324. 12 Kuttner, "Spooks and Science: An American Dilemma," The Washington Post, 
  325. August 20, 1989, at B8.  See, also Kuttner, "How 'National Security' Hurts 
  326. National Competitiveness, " Harvard Business Review, January - February 1991,
  327. at 140.
  328.  
  329. 13 35 U.S.  C. $ 181 et seq.
  330.  
  331. 14 "The Government's Classification of Private Ideas," Hearings before a
  332. Subcommittee of the House Committee on Government Operations, 96th Cong.  ,
  333. 2d Sess.  (1980) (hereinafter cited as "Private Ideas") at 258 (testimony of
  334. H. Miles Foy, Office of Legal Counsel, Department of Justice).
  335.  
  336. 15 Hausken, "The Value of a Secret: Compensation for Imposition of Secrecy
  337. Orders under the Invention Secrecy Act," 119 Military Law Review (Winter 1988)
  338. at 202 n.10 (446 new orders were issued in 1986 compared with 293 in 1979).
  339.  
  340. 16 See "Private Ideas" at 406-431; see also Gilbert, "Patent Secrecy Orders: 
  341. The Unconstitutionality of Interference in Civilian Cryptography under Present 
  342. Procedures," 22 Santa Clara Law Review 325 (1982).
  343.  
  344. 17 Kewanee Oil Co. v. Bicron Corp., 416 U.S. 470, 481 (1974).
  345.  
  346. 18 H. Rep.  No. 153 (Part 2), 100th Cong., 1st Sess. 7 (1987).
  347.  
  348. 19 Letter from NIST to CPSR dated September 11, 1991.
  349.  
  350. 20 CPSR v. NIST, Civil Action No.  92-0972 (D.D.C.) (agency affidavits filed 
  351. in support of motion to stay proceedings).
  352.  
  353. 21 Letter from Michael S.  Conn (NSA) to Mitch Ratcliffe (MacWeek), October 
  354. 31, 1991.
  355.  
  356. 22 Opening Statement of Rep.  Jack Brooks, Threat of Foreign Economic 
  357. Espionage to U.S. Corporations, House Judiciary Subcommittee on Economic and
  358. Commercial Law, May 7, 1992 at 2.
  359.  
  360. 23 See, e.g., Comments submitted to NIST by Fischer In te rnational Systems 
  361. Corp., dated November 26, 1991.  See also "Debating Encryption Standards, " Co 
  362. mm unications of the ACM, July 1992 at 34 ("After years of testing and proven 
  363. re liability, RSA is now used by the majority of software makers around the
  364. world, including IBM, Apple, Lotus, Sun and Mi crosoft").
  365.  
  366. 24 Comments submitted to NIST by Professor Martin E.  Hellman, dated November 
  367. 12, 1991, reprinted in Communications of the ACM, July 1992 at 47-49.
  368.  
  369. 25 Memorandum from Roy Saltman to Lynn McNulty dated December 22, 1989.
  370.  
  371. 26 Adam, "Cryptography = Privacy?," IEEE Spectrum, August 1992 at 29.
  372.  
  373. 27 Computer System Security and Privacy Advisory Board, Re solutions No. 1 and 
  374. 3, March 18, 1992.
  375.  
  376.  
  377.