home *** CD-ROM | disk | FTP | other *** search
/ The Hacker's Encyclopedia 1998 / hackers_encyclopedia.iso / zines / eff / eff514.txt < prev    next >
Encoding:
Internet Message Format  |  2003-06-11  |  31.0 KB

  1. Message-ID: <199308052104.AA10411@eff.org>
  2. Newsgroup: comp.org.eff.news,comp.org.eff.talk
  3. Organization: The Whole Earth 'Lectronic Link, Sausalito, CA
  4.  
  5. ******************************************************************
  6.            //////////////     //////////////     //////////////
  7.          ///                ///                ///
  8.        ///////            ///////            ///////
  9.      ///                ///                ///
  10.    //////////////     ///                ///
  11. ******************************************************************
  12. EFFector Online Volume 5 No. 14       8/5/1993       editors@eff.org
  13. A Publication of the Electronic Frontier Foundation   ISSN 1062-9424
  14.  
  15.                   -==--==--==-<>-==--==--==-
  16.                         In this issue:
  17.                  Answers to Clipper Questions
  18.                  SKIPJACK Review
  19.                  Another Job Opening at EFF
  20.                    -==--==--==-<>-==--==--==-
  21.  
  22.  
  23. ****************************
  24. Answers to Clipper Questions
  25. ****************************
  26. In a previous EFFector Online, we printed some of the 114 questions sent to
  27. President Clinton by the Digital Privacy & Security Working Group on the
  28. Clipper Chip.  On July 29, we received a response to these questions from
  29. John D. Podesta, Assistant to the President and Staff Secretary.  Some
  30. highlights of the response follow.  The complete text of the response will
  31. be posted to EFF's ftp site.
  32.  
  33. Why is key escrow being proposed?
  34.  
  35. The development of key escrow encryption technology was born out of a
  36. recognition on the part of the U.S. Government of the public's growing
  37. desire for high quality encryption capability for commercial and private
  38. use.  At the same time, the Government was concerned that the widespread
  39. use of this technology could make lawfully authorized electronic
  40. surveillance much more difficult.  Historically, law enforcement
  41. encountered very little encryption, owing largely to the expense and
  42. difficulty in using such technology.  With growing availability of lower
  43. cost, commercial encryption technology for use by U.S. industry and private
  44. citizens, it became clear that a strategy was needed that could accommodate
  45. the needs of the private sector for top notch communications security; of
  46. U.S. industry to remain competitive in the world's secure communications
  47. market; and of U.S. law enforcement to conduct lawfully-authorized
  48. electronic surveillance.
  49.  
  50. Enhancing the government's ability to decrypt non-key escrow encryption
  51. used by the targets of authorized law enforcement wiretaps is another
  52. possible strategy for coping with the effects of encryption on law
  53. enforcement.  However, since encryption appears in a number of forms and
  54. applications, the costs are likely to be substantial and may not be either
  55. affordable or practical given the requirement for "real time" decryption in
  56. the course of wiretap operations.
  57.  
  58. Why is the algorithm classified?
  59.  
  60. A classified algorithm is essential to the effectiveness of the key escrow
  61. solution.  The use of a classified algorithm assures no one can use the
  62. algorithm in non-escrowed systems.  Also, disclosure of the algorithm
  63. would, in effect, provide the world with an extremely secure encryption
  64. capability that could be implemented and used in systems by those whose
  65. interests are adverse to U.S. national security interests.  Finally, NSA
  66. classifies all of the algorithms used for defense systems as part of its
  67. policy to take all reasonable steps to assure the security of systems it
  68. develops.  The algorithm was classified in accordance with Executive Order
  69. 12356 and its implementing regulations.
  70.  
  71. For all these reasons the encryption algorithm could not be chosen from
  72. those already available to the public, such as the Data Encryption Standard
  73. (DES).  Similarly, the algorithm cannot be published for public review and
  74. comment.  Nonetheless, in keeping with the Presidential Decision Directive
  75. of April to allow independent experts to review the integrity of the
  76. classified algorithm, five such experts have already begun a study of the
  77. algorithm.  We expect their findings to be made public soon.
  78.  
  79. Is the key escrow initiative compatible with constitutional rights?
  80.  
  81. Questions have been raised whether the requirement of key disclosure
  82. infringes upon one's right to free speech under the First Amendment, the
  83. right against self incrimination contained in the Fifth Amendment, or the
  84. right against improper search and seizure in the Fourth Amendment.  The key
  85. escrow scheme does not require the owner or user of a device equipped with
  86. the key escrow encryption chip to say or produce anything.  The key escrow
  87. technique in no way addresses the issue of what people may choose to say,
  88. and the individual user of key escrow products will not be required to
  89. provide the government any information.  Indeed, the individual will not
  90. know the keys.  Thus, this technology or technique in no way impacts the
  91. rights available under the First or Fifth Amendments.
  92.  
  93. Law enforcement organizations will not be able to decrypt communications
  94. without the device unique key and they can only obtain the key components
  95. needed to determine a device unique key after making an appropriate
  96. certification of their authority to conduct electronic surveillance to the
  97. independent key escrow agents.  Thus, this technology actually strengthens
  98. the Fourth Amendment protections afforded individuals, since law
  99. enforcement cannot obtain the contents of communications without first
  100. obtaining the key component.
  101.  
  102. Will use of the key escrow technology be required?
  103.  
  104. One point clearly stated in the Presidential Decision Directive and
  105. emphasized several times since April is that use of key escrow encryption
  106. technology is voluntary.  While the U.S. government encourages its use
  107. because of the excellent security it provides, and will promulgate
  108. standards permitting its use by government departments and agencies, there
  109. is no requirement that the public use it.  No doubt some, particularly
  110. those intent on thwarting authorized wiretaps, will buy other forms of
  111. encryption or could "double encrypt" their communications suing a key
  112. escrow device in combination with a non-escrowed device.  But we believe
  113. the vast majority will buy this system because it is easy to use, provides
  114. superb security, and likely will be readily available in commercial
  115. products.
  116.  
  117. The Administration has chosen to encourage the widespread use of key escrow
  118. devices rather than mandating or regulating its use.  Though we recognize
  119. the risks to law enforcement activities posed by the widespread use of
  120. sophisticated encryption products, we also recognize that encryption is an
  121. effective means to secure communications and computer systems.  Thus far,
  122. government purchases and standards have created secure products that sere
  123. bought by private citizens "piggybacking" on the government's development
  124. effort.  It makes little sense for the government to promulgate standards
  125. or to develop products that will defeat law enforcement interests if and
  126. when they spread to the private sector.  Because these measures may be
  127. sufficient to make key escrow encryption the easiest and most available
  128. privacy protection it would be imprudent to pursue the far more drastic
  129. step of regulating private encryption.  The Administration has progressed
  130. far enough in its review to conclude it will not propose new legislation to
  131. limit use of encryption technology.
  132.  
  133.  
  134. ***************
  135. SKIPJACK Review
  136. ***************
  137. The following interim report on the SKIPJACK, formerly Clipper, chip was
  138. posted by Dorothy Denning to sci.crypt.  It is reprinted here for
  139. nonmembers of that list.
  140.  
  141.                             SKIPJACK Review
  142.  
  143.                              Interim Report
  144.  
  145.                         The SKIPJACK Algorithm
  146.  
  147.  
  148.            Ernest F. Brickell, Sandia National Laboratories
  149.                Dorothy E. Denning, Georgetown University
  150.             Stephen T. Kent, BBN Communications Corporation
  151.                           David P. Maher, AT&T
  152.                   Walter Tuchman, Amperif Corporation
  153.  
  154.                               July 28, 1993
  155.  
  156.                             (copyright 1993)
  157.  
  158.  
  159. Executive Summary
  160.  
  161. The objective of the SKIPJACK review was to provide a mechanism whereby
  162. persons outside the government could evaluate the strength of the
  163. classified encryption algorithm used in the escrowed encryption devices
  164. and publicly report their findings.  Because SKIPJACK is but one
  165. component of a large, complex system, and because the security of
  166. communications encrypted with SKIPJACK depends on the security of the
  167. system as a whole, the review was extended to encompass other
  168. components of the system.  The purpose of this Interim Report is to
  169. report on our evaluation of the SKIPJACK algorithm.  A later Final
  170. Report will address the broader system issues.
  171.  
  172. The results of our evaluation of the SKIPJACK algorithm are as
  173. follows:
  174.  
  175.   1. Under an assumption that the cost of processing power is halved
  176.      every eighteen months, it will be 36 years before the cost of
  177.      breaking SKIPJACK by exhaustive search will be equal to the cost
  178.      of breaking DES today.  Thus, there is no significant risk that
  179.      SKIPJACK will be broken by exhaustive search in the next 30-40
  180.      years.
  181.  
  182.   2. There is no significant risk that SKIPJACK can be broken through a
  183.      shortcut method of attack.
  184.  
  185.   3. While the internal structure of SKIPJACK must be classified in
  186.      order to protect law enforcement and national security objectives,
  187.      the strength of SKIPJACK against a cryptanalytic attack does not
  188.      depend on the secrecy of the algorithm.
  189.  
  190.  
  191.  
  192. 1.  Background
  193.  
  194. On April 16, the President announced a new technology initiative aimed
  195. at providing a high level of security for sensitive, unclassified
  196. communications, while enabling lawfully authorized intercepts of
  197. telecommunications by law enforcement officials for criminal
  198. investigations.  The initiative includes several components:
  199.  
  200.     A classified encryption/decryption algorithm called "SKIPJACK."
  201.  
  202.     Tamper-resistant cryptographic devices (e.g., electronic chips),
  203.     each of which contains SKIPJACK, classified control software, a
  204.     device identification number, a family key used by law enforcement,
  205.     and a device unique key that unlocks the session key used to
  206.     encrypt a particular communication.
  207.  
  208.     A secure facility for generating device unique keys and programming
  209.     the devices with the classified algorithms, identifiers, and keys.
  210.  
  211.     Two escrow agents that each hold a component of every device unique
  212.     key.  When combined, those two components form the device unique
  213.     key.
  214.  
  215.     A law enforcement access field (LEAF), which enables an authorized
  216.     law enforcement official to recover the session key.  The LEAF is
  217.     created by a device at the start of an encrypted communication and
  218.     contains the session key encrypted under the device unique key
  219.     together with the device identifier, all encrypted under the family
  220.     key.
  221.  
  222.     LEAF decoders that allow an authorized law enforcement official to
  223.     extract the device identifier and encrypted session key from an
  224.     intercepted LEAF.  The identifier is then sent to the escrow
  225.     agents, who return the components of the corresponding device
  226.     unique key.  Once obtained, the components are used to reconstruct
  227.     the device unique key, which is then used to decrypt the session
  228.     key.
  229.  
  230. This report reviews the security provided by the first component,
  231. namely the SKIPJACK algorithm.  The review was performed pursuant to
  232. the President's direction that "respected experts from outside the
  233. government will be offered access to the confidential details of the
  234. algorithm to assess its capabilities and publicly report their
  235. finding."  The Acting Director of the National Institute of Standards
  236. and Technology (NIST) sent letters of invitation to potential
  237. reviewers.  The authors of this report accepted that invitation.
  238.  
  239. We attended an initial meeting at the Institute for Defense Analyses
  240. Supercomputing Research Center (SRC) from June 21-23.  At that meeting,
  241. the designer of SKIPJACK provided a complete, detailed description of
  242. the algorithm, the rationale for each feature, and the history of the
  243. design.  The head of the NSA evaluation team described the evaluation
  244. process and its results.  Other NSA staff briefed us on the LEAF
  245. structure and protocols for use, generation of device keys, protection
  246. of the devices against reverse engineering, and NSA's history in the
  247. design and evaluation of encryption methods contained in SKIPJACK.
  248. Additional NSA and NIST staff were present at the meeting to answer our
  249. questions and provide assistance.  All staff members were forthcoming
  250. in providing us with requested information.
  251.  
  252. At the June meeting, we agreed to integrate our individual evaluations
  253. into this joint report.  We also agreed to reconvene at SRC from July
  254. 19-21 for further discussions and to complete a draft of the report.
  255. In the interim, we undertook independent tasks according to our
  256. individual interests and availability.  Ernest Brickell specified a
  257. suite of tests for evaluating SKIPJACK.  Dorothy Denning worked at NSA
  258. on the refinement and execution of these and other tests that took into
  259. account suggestions solicited from Professor Martin Hellman at Stanford
  260. University.  NSA staff assisted with the programming and execution of
  261. these tests.  Denning also analyzed the structure of SKIPJACK and its
  262. susceptibility to differential cryptanalysis.  Stephen Kent visited NSA
  263. to explore in more detail how SKIPJACK compared with NSA encryption
  264. algorithms that he already knew and that were used to protect
  265. classified data.  David Maher developed a risk assessment approach
  266. while continuing his ongoing work on the use of the encryption chip in
  267. the AT&T Telephone Security Device.  Walter Tuchman investigated the
  268. anti-reverse engineering properties of the chips.
  269.  
  270. We investigated more than just SKIPJACK because the security of
  271. communications encrypted with the escrowed encryption technology
  272. depends on the security provided by all the components of the
  273. initiative, including protection of the keys stored on the devices,
  274. protection of the key components stored with the escrow agents, the
  275. security provided by the LEAF and LEAF decoder, protection of keys
  276. after they have been transmitted to law enforcement under court order,
  277. and the resistance of the devices to reverse engineering.  In addition,
  278. the success of the technology initiative depends on factors besides
  279. security, for example, performance of the chips.  Because some
  280. components of the escrowed encryption system, particularly the key
  281. escrow system, are still under design, we decided to issue this Interim
  282. Report on the security of the SKIPJACK algorithm and to defer our Final
  283. Report until we could complete our evaluation of the system as a
  284. whole.
  285.  
  286.  
  287. 2.  Overview of the SKIPJACK Algorithm
  288.  
  289. SKIPJACK is a 64-bit "electronic codebook" algorithm that transforms a
  290. 64-bit input block into a 64-bit output block.  The transformation is
  291. parameterized by an 80-bit key, and involves performing 32 steps or
  292. iterations of a complex, nonlinear function.  The algorithm can be used
  293. in any one of the four operating modes defined in FIPS 81 for use with
  294. the Data Encryption Standard (DES).
  295.  
  296. The SKIPJACK algorithm was developed by NSA and is classified SECRET.
  297. It is representative of a family of encryption algorithms developed in
  298. 1980 as part of the NSA suite of "Type I" algorithms, suitable for
  299. protecting all levels of classified data.  The specific algorithm,
  300. SKIPJACK, is intended to be used with sensitive but unclassified
  301. information.
  302.  
  303. The strength of any encryption algorithm depends on its ability to
  304. withstand an attack aimed at determining either the key or the
  305. unencrypted ("plaintext") communications.  There are basically two
  306. types of attack, brute-force and shortcut.
  307.  
  308.  
  309. 3.  Susceptibility to Brute Force Attack by Exhaustive Search
  310.  
  311. In a brute-force attack (also called "exhaustive search"), the
  312. adversary essentially tries all possible keys until one is found that
  313. decrypts the intercepted communications into a known or meaningful
  314. plaintext message.  The resources required to perform an exhaustive
  315. search depend on the length of the keys, since the number of possible
  316. keys is directly related to key length.  In particular, a key of length
  317. N bits has 2^N possibilities.  SKIPJACK uses 80-bit keys, which means
  318. there are 2^80 (approximately 10^24) or more than 1 trillion
  319. possible keys.
  320.  
  321. An implementation of  SKIPJACK optimized for a single processor on the
  322. 8-processor Cray YMP performs about 89,000 encryptions per second.  At
  323. that rate, it would take more than 400 billion years to try all keys.
  324. Assuming the use of all 8 processors and aggressive vectorization, the
  325. time would be reduced to about a billion years.
  326.  
  327. A more speculative attack using a future, hypothetical, massively
  328. parallel machine with 100,000 RISC processors, each of which was
  329. capable of 100,000 encryptions per second, would still take about 4
  330. million years.  The cost of such a machine might be on the order of $50
  331. million.  In an even more speculative attack, a special purpose machine
  332. might be built using 1.2 billion $1 chips with a 1 GHz clock.  If the
  333. algorithm could be pipelined so that one encryption step were performed
  334. per clock cycle, then the $1.2 billion machine could exhaust the key
  335. space in 1 year.
  336.  
  337. Another way of looking at the problem is by comparing a brute force
  338. attack on SKIPJACK with one on DES, which uses 56-bit keys.  Given that
  339. no one has demonstrated a capability for breaking DES, DES offers a
  340. reasonable benchmark.  Since SKIPJACK keys are 24 bits longer than DES
  341. keys, there are 2^24 times more possibilities.  Assuming that the cost
  342. of processing power is halved every eighteen months, then it will not
  343. be for another 24 * 1.5 = 36 years before the cost of breaking
  344. SKIPJACK is equal to the cost of breaking DES today.  Given the lack of
  345. demonstrated capability for breaking DES, and the expectation that the
  346. situation will continue for at least several more years, one can
  347. reasonably expect that SKIPJACK will not be broken within the next
  348. 30-40 years.
  349.  
  350. Conclusion 1:   Under an assumption that the cost of processing power
  351. is halved every eighteen months, it will be 36 years before the cost of
  352. breaking SKIPJACK by exhaustive search will be equal to the cost of
  353. breaking DES today.  Thus, there is no significant risk that SKIPJACK
  354. will be broken by exhaustive search in the next 30-40 years.
  355.  
  356. 4.  Susceptibility to Shortcut Attacks
  357.  
  358. In a shortcut attack, the adversary exploits some property of the
  359. encryption algorithm that enables the key or plaintext to be determined
  360. in much less time than by exhaustive search.  For example, the RSA
  361. public-key encryption method is attacked by factoring a public value
  362. that is the product of two secret primes into its primes.
  363.  
  364. Most shortcut attacks use probabilistic or statistical methods that
  365. exploit a structural weakness, unintentional or intentional (i.e., a
  366. "trapdoor"), in the encryption algorithm.  In order to determine
  367. whether such attacks are possible, it is necessary to thoroughly
  368. examine the structure of the algorithm and its statistical properties.
  369. In the time available for this review, it was not feasible to conduct
  370. an evaluation on the scale that NSA has conducted or that has been
  371. conducted on the DES.  Such review would require many man-years of
  372. effort over a considerable time interval.  Instead, we concentrated on
  373. reviewing NSA's design and evaluation process.  In addition, we
  374. conducted several of our own tests.
  375.  
  376. 4.1  NSA's Design and Evaluation Process
  377.  
  378. SKIPJACK was designed using building blocks and techniques that date
  379. back more than forty years.  Many of the techniques are related to work
  380. that was evaluated by some of the world's most accomplished and famous
  381. experts in combinatorics and abstract algebra.  SKIPJACK's more
  382. immediate heritage dates to around 1980, and its initial design to
  383. 1987.
  384.  
  385. SKIPJACK was designed to be evaluatable, and the design and evaluation
  386. approach was the same used with algorithms that protect the country's
  387. most sensitive classified information.  The specific structures
  388. included in SKIPJACK have a long evaluation history, and the
  389. cryptographic properties of those structures had many prior years of
  390. intense study before the formal process began in 1987.  Thus, an
  391. arsenal of tools and data was available.  This arsenal was used by
  392. dozens of adversarial evaluators whose job was to break SKIPJACK.  Many
  393. spent at least a full year working on the algorithm.  Besides highly
  394. experienced evaluators, SKIPJACK was subjected to cryptanalysis by less
  395. experienced evaluators who were untainted by past approaches.  All
  396. known methods of attacks were explored, including differential
  397. cryptanalysis.  The goal was a design that did not allow a shortcut
  398. attack.
  399.  
  400. The design underwent a sequence of iterations based on feedback from
  401. the evaluation process.  These iterations eliminated properties which,
  402. even though they might not allow successful attack, were related to
  403. properties that could be indicative of vulnerabilities.  The head of
  404. the NSA evaluation team confidently concluded "I believe that SKIPJACK
  405. can only be broken by brute force   there is no better way."
  406.  
  407. In summary, SKIPJACK is based on some of NSA's best technology.
  408. Considerable care went into its design and evaluation in accordance
  409. with the care given to algorithms that protect classified data.
  410.  
  411. 4.2  Independent Analysis and Testing
  412.  
  413. Our own analysis and testing increased our confidence in the strength
  414. of SKIPJACK and its resistance to attack.
  415.  
  416. 4.2.1  Randomness and Correlation Tests
  417.  
  418. A strong encryption algorithm will behave like a random function of the
  419. key and plaintext so that it is impossible to determine any of the key
  420. bits or plaintext bits from the ciphertext bits (except by exhaustive
  421. search).  We ran two sets of tests aimed at determining whether
  422. SKIPJACK is a good pseudo random number generator.  These tests were
  423. run on a Cray YMP at NSA.  The results showed that SKIPJACK behaves
  424. like a random function and that ciphertext bits are not correlated with
  425. either key bits or plaintext bits.  Appendix A gives more details.
  426.  
  427. 4.2.2  Differential Cryptanalysis
  428.  
  429. Differential cryptanalysis is a powerful method of attack that exploits
  430. structural properties in an encryption algorithm.  The method involves
  431. analyzing the structure of the algorithm in order to determine the
  432. effect of particular differences in plaintext pairs on the differences
  433. of their corresponding ciphertext pairs, where the differences are
  434. represented by the exclusive-or of the pair.  If it is possible to
  435. exploit these differential effects in order to determine a key in less
  436. time than with exhaustive search, an encryption algorithm is said to be
  437. susceptible to differential cryptanalysis.  However, an actual attack
  438. using differential cryptanalysis may require substantially more chosen
  439. plaintext than can be practically acquired.
  440.  
  441. We examined the internal structure of SKIPJACK to determine its
  442. susceptibility to differential cryptanalysis.  We concluded it was not
  443. possible to perform an attack based on differential cryptanalysis in
  444. less time than with exhaustive search.
  445.  
  446. 4.2.3  Weak Key Test
  447.  
  448. Some algorithms have "weak keys" that might permit a shortcut
  449. solution.  DES has a few weak keys, which follow from a pattern of
  450. symmetry in the algorithm.  We saw no pattern of symmetry in the
  451. SKIPJACK algorithm which could lead to weak keys.  We also
  452. experimentally tested the all "0" key (all 80 bits are "0") and the all
  453. "1" key to see if they were weak and found they were not.
  454.  
  455. 4.2.4  Symmetry Under Complementation Test
  456.  
  457. The DES satisfies the property that for a given plaintext-ciphertext
  458. pair and associated key, encryption of the one's complement of the
  459. plaintext with the one's complement of the key yields the one's
  460. complement of the ciphertext.  This "complementation property" shortens
  461. an attack by exhaustive search by a factor of two since half the keys
  462. can be tested by computing complements in lieu of performing a more
  463. costly encryption.  We tested SKIPJACK for this property and found that
  464. it did not hold.
  465.  
  466. 4.2.5  Comparison with Classified Algorithms
  467.  
  468. We compared the structure of SKIPJACK to that of NSA Type I algorithms
  469. used in current and near-future devices designed to protect classified
  470. data.  This analysis was conducted with the close assistance of the
  471. cryptographer who developed SKIPJACK and included an in-depth
  472. discussion of design rationale for all of the algorithms involved.
  473. Based on this comparative, structural analysis of SKIPJACK against
  474. these other algorithms, and a detailed discussion of the similarities
  475. and differences between these algorithms, our confidence in the basic
  476. soundness of SKIPJACK was further increased.
  477.  
  478. Conclusion 2:  There is no significant risk that SKIPJACK can be broken
  479. through a shortcut method of attack.
  480.  
  481.  
  482. 5.   Secrecy of the Algorithm
  483.  
  484. The SKIPJACK algorithm is sensitive for several reasons.  Disclosure of
  485. the algorithm would permit the construction of devices that fail to
  486. properly implement the LEAF, while still interoperating with legitimate
  487. SKIPJACK devices.  Such devices would provide high quality
  488. cryptographic security without preserving the law enforcement access
  489. capability that distinguishes this cryptographic initiative.
  490. Additionally, the SKIPJACK algorithm is classified SECRET   NOT
  491. RELEASABLE TO FOREIGN NATIONALS.  This classification reflects the high
  492. quality of the algorithm, i.e., it incorporates design techniques that
  493. are representative of algorithms used to protect classified
  494. information.  Disclosure of the algorithm would permit analysis that
  495. could result in discovery of these classified design techniques, and
  496. this would be detrimental to national security.
  497.  
  498. However, while full exposure of the internal details of SKIPJACK would
  499. jeopardize law enforcement and national security objectives, it would
  500. not jeopardize the security of encrypted communications.  This is
  501. because a shortcut attack is not feasible even with full knowledge of
  502. the algorithm.  Indeed, our analysis of the susceptibility of SKIPJACK
  503. to a brute force or shortcut attack was based on the assumption that
  504. the algorithm was known.
  505.  
  506. Conclusion 3:  While the internal structure of SKIPJACK must be
  507. classified in order to protect law enforcement and national security
  508. objectives, the strength of SKIPJACK against a cryptanalytic attack
  509. does not depend on the secrecy of the algorithm.
  510.  
  511.  
  512. **************************
  513. Another Job Opening at EFF
  514. **************************
  515. ONLINE ACTIVIST
  516.  
  517. The Electronic Frontier Foundation (EFF), a nonprofit organization
  518. dedicated to protecting civil liberties for users of newly emerging
  519. technologies, is looking to hire an Online Activist.
  520.  
  521. The Online Activist will actively participate in and organize EFF's sites
  522. on CompuServe, America Online, GEnie, Usenet and the WELL and will
  523. distribute feedback from the various networks to EFF staff and board
  524. through regular online summaries.  This person will provide
  525. leadership to groups of members and will possibly set up and maintain an
  526. EFF BBS.  The Online Activist will help to maintain EFF's ftp library.
  527. This person will train new EFF staff members on online communications.
  528. S/he will collect and solicit articles for, write articles for, edit and
  529. assemble our biweekly electronic newsletter, EFFector Online.  The Online
  530. Activist will work with the System Administrator to distribute and post
  531. EFFector Online and other EFF electronic publications and to maintain a
  532. database of form answers for commonly asked questions, along with the
  533. Membership Coordinator.  This person must be willing to work out of EFF's
  534. offices in Washington, DC.
  535.  
  536. The Electronic Frontier Foundation offers a competitive salary with
  537. excellent benefits.  For immediate consideration, please forward a resume,
  538. along with a cover letter describing your online experience and reason for
  539. applying for this job by August 23, 1993, to:
  540.  
  541. Online Activist Search
  542. Electronic Frontier Foundation
  543. 1001 G Street, NW
  544. Suite 950 East
  545. Washington, DC  20001
  546. fax (202) 393-5509
  547. e-mail ssteele@eff.org (ASCII only, please)
  548.  
  549. EFF is an Equal Opportunity Employer.
  550.  
  551.  
  552. =============================================================
  553.  
  554.      EFFector Online is published biweekly by:
  555.  
  556.      Electronic Frontier Foundation
  557.      1001 G Street, N.W., Suite 950 East
  558.      Washington, DC  20001  USA
  559.      Phone:  +1 202 347 5400  FAX:  +1 202 393 5509
  560.      Internet Address:  eff@eff.org
  561.  
  562.      Coordination, production and shipping by Shari Steele,
  563.      Director of Legal Services & Community Outreach (ssteele@eff.org)
  564.  
  565. Reproduction of this publication in electronic media is encouraged.  Signed
  566. articles do not necessarily represent the view of the EFF.  To reproduce
  567. signed articles individually, please contact the authors for their express
  568. permission.
  569.  
  570.      *This newsletter is printed on 100% recycled electrons.*
  571. =============================================================
  572.  
  573. MEMBERSHIP IN THE ELECTRONIC FRONTIER FOUNDATION
  574.  
  575. In order to continue the work already begun and to expand our efforts and
  576. activities into other realms of the electronic frontier, we need the
  577. financial support of individuals and organizations.
  578.  
  579. If you support our goals and our work, you can show that support by
  580. becoming a member now. Members receive our biweekly electronic newsletter,
  581. EFFector Online (if you have an electronic address that can be reached
  582. through the Net), and special releases and other notices on our activities.
  583.  But because we believe that support should be freely given, you can
  584. receive these things even if you do not elect to become a member.
  585.  
  586. Your membership/donation is fully tax deductible.
  587.  
  588. Our memberships are $20.00 per year for students and $40.00 per year for
  589. regular members.  You may, of course, donate more if you wish.
  590.  
  591. =============================================================
  592. Mail to:
  593.          Membership Coordinator
  594.          Electronic Frontier Foundation
  595.          1001 G Street, N.W.
  596.          Suite 950 East
  597.          Washington, DC  20001  USA
  598.  
  599. Membership rates:
  600.             $20.00 (student or low income membership)
  601.             $40.00 (regular membership)
  602.  
  603.  
  604. [   ]  I wish to become a member of the EFF.  I enclose: $_______
  605. [   ]  I wish to renew my membership in the EFF.  I enclose: $_______
  606. [   ]  I enclose an additional donation of $_______
  607.  
  608. Name:
  609.  
  610. Organization:
  611.  
  612. Address:
  613.  
  614. City or Town:
  615.  
  616. State:            Zip:           Phone: (      )                  (optional)
  617.  
  618. FAX: (      )                   (optional)
  619.  
  620. E-mail address:
  621.  
  622. I enclose a check [  ].
  623. Please charge my membership in the amount of $
  624. to my Mastercard [  ]  Visa [  ]  American Express [  ]
  625.  
  626. Number:
  627.  
  628. Expiration date:
  629.  
  630. Signature: ______________________________________________
  631.  
  632. Date:
  633.  
  634. I hereby grant permission to the EFF to share my name with
  635. other nonprofit groups from time to time as it deems
  636. appropriate.                       Initials:______________________
  637.  
  638.  
  639. Downloaded From P-80 International Information Systems 304-744-2253
  640.