home *** CD-ROM | disk | FTP | other *** search
/ Handbook of Infosec Terms 2.0 / Handbook_of_Infosec_Terms_Version_2.0_ISSO.iso / text / privacy / p02_014.txt < prev    next >
Text File  |  1996-09-03  |  38KB  |  788 lines

  1. PRIVACY Forum Digest     Thursday, 22 April 1993     Volume 02 : Issue 14
  2.  
  3.           Moderated by Lauren Weinstein (lauren@vortex.com)
  4.                 Vortex Technology, Topanga, CA, U.S.A.
  5.     
  6.                      ===== PRIVACY FORUM =====
  7.  
  8.          The PRIVACY Forum digest is supported in part by the 
  9.           ACM Committee on Computers and Public Policy.
  10.  
  11.  
  12. CONTENTS
  13.     Thoughts on Clipper (Lauren Weinstein; PRIVACY Forum Moderator)
  14.     The Clipper Chip: A Technical Summary (Dorothy Denning)
  15.     Slide presented at White House briefing on Clipper Chip
  16.        (Clipper Chip Announcement) 
  17.     Clipper Chip questions (John R. Levine)
  18.     Clipper Chip Encryption (Bob Leone)
  19.     Clipper Chip Announcement (F.Baube[tm])
  20.     Clipper Chips (USC ?) (A. Padgett Peterson)
  21.     Re: Which countries outlaw encryption? (Tom Zmudzinski)
  22.     Clipper announcement and asset seizure (Steve Piehler)
  23.     Re: Clipper Key announcement (Chuck Stern)
  24.     Clipper and Who Holds Crypto Keys (Lance J. Hoffman)
  25.  
  26.  
  27.  *** Please include a RELEVANT "Subject:" line on all submissions! ***
  28.             *** Submissions without them may be ignored! ***
  29.  
  30. -----------------------------------------------------------------------------
  31. The PRIVACY Forum is a moderated digest for the discussion and analysis of
  32. issues relating to the general topic of privacy (both personal and
  33. collective) in the "information age" of the 1990's and beyond.  The
  34. moderator will choose submissions for inclusion based on their relevance and
  35. content.  Submissions will not be routinely acknowledged.
  36.  
  37. ALL submissions should be addressed to "privacy@vortex.com" and must have
  38. RELEVANT "Subject:" lines.  Submissions without appropriate and relevant
  39. "Subject:" lines may be ignored.  Subscriptions are by an automatic
  40. "listserv" system; for subscription information, please send a message
  41. consisting of the word "help" (quotes not included) in the BODY of a message
  42. to: "privacy-request@vortex.com".  Mailing list problems should be
  43. reported to "list-maint@vortex.com".  All submissions included in this
  44. digest represent the views of the individual authors and all submissions
  45. will be considered to be distributable without limitations. 
  46.  
  47. The PRIVACY Forum archive, including all issues of the digest and all
  48. related materials, is available via anonymous FTP from site "ftp.vortex.com",
  49. in the "/privacy" directory.  Use the FTP login "ftp" or "anonymous", and
  50. enter your e-mail address as the password.  The typical "README" and "INDEX"
  51. files are available to guide you through the files available for FTP
  52. access.  PRIVACY Forum materials may also be obtained automatically via
  53. e-mail through the listserv system.  Please follow the instructions above
  54. for getting the listserv "help" information, which includes details
  55. regarding the "index" and "get" listserv commands, which are used to access
  56. the PRIVACY Forum archive.  All PRIVACY Forum materials are also
  57. available through the Internet Gopher system via a gopher server on
  58. site "gopher.vortex.com".
  59.  
  60. For information regarding the availability of this digest via FAX, please
  61. send an inquiry to privacy-fax@vortex.com, call (310) 455-9300, or FAX
  62. to (310) 455-2364.
  63. -----------------------------------------------------------------------------
  64.  
  65. VOLUME 02, ISSUE 14
  66.  
  67.    Quote for the day:
  68.  
  69.     "Don't panic."
  70.  
  71.         -- "Hitch Hiker's Guide to the Galaxy", preface (1979)
  72.             Douglas Adams (1952- )
  73.     
  74. ----------------------------------------------------------------------
  75.  
  76. Date:    Thu, 22 Apr 93 10:53 PDT
  77. From:    lauren@vortex.com (Lauren Weinstein; PRIVACY Forum Moderator)
  78. Subject: Thoughts on Clipper
  79.  
  80. Greetings.  Well, as you might imagine, considerable mail has been coming
  81. into PRIVACY Forum regarding the Clipper chip announcement and related
  82. materials.  A number of persons have asked me for my thoughts regarding the
  83. announcement and its possible implications for privacy-related issues.  What
  84. follows is purely my individual, personal opinion.  I apologize in advance
  85. for its length.
  86.  
  87. I'm not a cryptography expert.  I'm not the right person to judge the
  88. algorithmic strengths or weaknesses of a given encryption system.  It is
  89. possible that a "team of experts" may determine that the Clipper chip is a
  90. powerful encryption mechanism, free (as far as can be determined) of
  91. significant algorithmic weaknesses which would impact its usefulness for the
  92. classes of applications and level of security for which it is designed.  
  93.  
  94. It could be argued that proper analysis of such a cryptographic system could
  95. only be conducted in an "open" environment, and that many cryptographic
  96. experts may be unwilling to participate in a "classified" analysis either out
  97. of general principles or concerns about possible impacts on their future
  98. ability to publish other cryptographic works.  However, those are not the
  99. points that directly impact privacy, and I'll leave them for others to
  100. explore.  For the sake of the argument, let's assume Clipper uses a strong
  101. algorithm, free from surprise "back-doors" or other weaknesses.
  102.  
  103. The privacy concerns regarding Clipper focus directly on its "key-escrow"
  104. aspects and the implications of a cryptographic system specifically designed
  105. to allow access by third parties to "private" communications. 
  106.  
  107. If Clipper remains purely a choice to be freely accepted or rejected by the
  108. marketplace, and individual users, the primary question revolves around
  109. whether or not potential users of the system are fully informed regarding
  110. all aspects of the system (including both the relative strength of the
  111. algorithm itself and the existence of the key-escrow mechanism) and choose
  112. to use the system after being so informed.  To the extent that manufacturers
  113. choose to use the system in mass-market products, the ability of users to
  114. select other systems may be impacted, but that's an issue that market forces
  115. can help rectify.
  116.  
  117. There's a more ominous potential problem, however.  Reading "between the
  118. lines" of the Clipper announcement, at least the possibility of future
  119. legislation being proposed to ban powerful non-key-escrow systems seems
  120. quite real.  If such legislation became law, the negative impact on personal
  121. privacy rights could be serious.  If such legislation were combined with the
  122. passage of concepts embodied in the FBI Digital Telephony Proposal, the
  123. potential negative impact could be quite dramatic.
  124.  
  125. Would people put up with being told that from now on they had to send copies
  126. of their house keys to outside entities who would hold them in case they were
  127. needed by law enforcement?  Pretty doubtful.  Or would they go along with
  128. the idea that cameras would be mounted throughout their homes but would only
  129. be activated under court order?  Not very likely.  We're permitted to speak
  130. to each other in person using whatever languages (or codes, presumably) that
  131. we like--even though this could presumably limit the effectiveness of
  132. court-ordered bugs on a premises.  We can write letters (or send faxes)
  133. using whatever symbolic systems we might wish.  Is there something
  134. significantly different about a phone call which should subject it to
  135. completely different privacy rules?  That's a core question in this debate.
  136.  
  137. Properly authorized wiretaps can of course have significant law enforcement
  138. value.  But law enforcement *using* authorized surveillance techniques is
  139. one thing; *requiring* that technology be designed in such a way as to make
  140. surveillance simpler (or for that matter, possible in a given situation) is
  141. something entirely different.
  142.  
  143. As technology evolves, techniques of law enforcement, like those of war, are
  144. subject to change.  Centuries ago, a suit of full body armor was protection
  145. against most of the weapons of the era.  With the introduction of gunpowder
  146. in Europe, armor rapidly became obsolete--upsetting both the governments
  147. who had invested heavily in armor and those who made the armor!  This is an
  148. imperfect analogy of course, but the point is that no particular technology
  149. can be expected to be equally useful forever, and that attempts to "hold
  150. back" other aspects of technology to "protect" the usefulness of another
  151. part are wasteful and usually doomed to ultimate failure.
  152.  
  153. This is especially true now with computer-oriented technologies, where
  154. software-based techniques of immense power are within the grasp of anyone
  155. with a personal computer.  The genie of powerful software-based encryption
  156. systems is out of the bottle--it's doubtful that he can be successfully
  157. forced back in.  
  158.  
  159. Of course, the more convenient a particular encryption technology is to use,
  160. the more likely it is to *get* used.  Theoretically "perfect" systems have
  161. long existed (such as one-time pads) but they have generally been relatively
  162. inconvenient to manage logistically (modern computer technology, however, is
  163. changing even this). 
  164.  
  165. Does concern about key-escrow systems imply a distrust of those
  166. organizations or agencies who would be currently holding those keys?  No,
  167. not necessarily.  But organizations and governments change.  The same
  168. entities you trust at one time may abuse their powers later.  Given that
  169. access to a Clipper key-escrow pair would give the ability to decode all
  170. future *and* all previously recorded past transmissions between affected
  171. units, we're talking about a power that must at least be carefully
  172. scrutinized before being handed over.
  173.  
  174. Perhaps this is all largely academic.  Maybe there's not going to be
  175. any push for the limitation or banning of powerful non-key-escrow 
  176. encryption systems.  In that case, this has all been an interesting
  177. intellectual exercise.  But since the crystal ball is unclear,
  178. it is to our benefits to carefully consider all the aspects of these
  179. technologies now, before they become widely entrenched.
  180.  
  181. One final point.  I've heard considerable numbers of persons referring to
  182. Clipper as a "Clinton" plan.  I think it's fairly clear that Clipper must
  183. have been in development for years, going back for at least one administration
  184. and perhaps even farther.  It seems likely that the Clinton administration
  185. was presented with an essentially complete program, and made the 
  186. announcement based on the briefings and information made available to
  187. them at that time.
  188.  
  189. Since the project apparently proceeded with only very limited input from the
  190. outside cryptography or computer science communities, it seems likely that the
  191. Clinton administration may not have heard a range of viewpoints regarding
  192. the technology and its implications before the announcement.  The press
  193. release announcing Clipper said that there is a desire to enter into a
  194. dialogue regarding these technologies.  So if you have opinions about
  195. Clipper or similar systems, either positive or negative, I'd urge you to
  196. make them known, in writing, to the administration and to other elected
  197. representatives as you see fit.
  198.  
  199. --Lauren--
  200.  
  201. ------------------------------
  202.  
  203. Date: Wed, 21 Apr 93 19:21:48 EDT
  204. From: denning@cs.cosc.georgetown.edu (Dorothy Denning)
  205. Subject: THE CLIPPER CHIP: A TECHNICAL SUMMARY
  206.  
  207.  
  208.     [ This item was extracted from the RISKS digest. -- MODERATOR ]
  209.  
  210.  
  211.                      THE CLIPPER CHIP: A TECHNICAL SUMMARY
  212.                                Dorothy Denning
  213.                            Revised, April 21, 1993
  214.  
  215. INTRODUCTION
  216.  
  217. On April 16, the President announced a new initiative that will bring
  218. together the Federal Government and industry in a voluntary program
  219. to provide secure communications while meeting the legitimate needs of
  220. law enforcement.  At the heart of the plan is a new tamper-proof encryption
  221. chip called the "Clipper Chip" together with a split-key approach to
  222. escrowing keys.  Two escrow agencies are used, and the key parts from
  223. both are needed to reconstruct a key.
  224.  
  225.  
  226. CHIP CONTENTS
  227.  
  228. The Clipper Chip contains a classified single-key 64-bit block
  229. encryption algorithm called "Skipjack."  The algorithm uses 80 bit keys
  230. (compared with 56 for the DES) and has 32 rounds of scrambling
  231. (compared with 16 for the DES).  It supports all 4 DES modes of
  232. operation.  The algorithm takes 32 clock ticks, and in Electronic
  233. Codebook (ECB) mode runs at 12 Mbits per second.
  234.  
  235. Each chip includes the following components:
  236.  
  237.    the Skipjack encryption algorithm
  238.    F, an 80-bit family key that is common to all chips
  239.    N, a 30-bit serial number (this length is subject to change)
  240.    U, an 80-bit secret key that unlocks all messages encrypted with the chip
  241.  
  242. The chips are programmed by Mykotronx, Inc., which calls them the
  243. "MYK-78."  The silicon is supplied by VLSI Technology Inc.  They are
  244. implemented in 1 micron technology and will initially sell for about
  245. $30 each in quantities of 10,000 or more.  The price should drop as the
  246. technology is shrunk to .8 micron.
  247.  
  248.  
  249. ENCRYPTING WITH THE CHIP
  250.  
  251. To see how the chip is used, imagine that it is embedded in the AT&T
  252. telephone security device (as it will be).  Suppose I call someone and
  253. we both have such a device.  After pushing a button to start a secure
  254. conversation, my security device will negotiate an 80-bit session key K
  255. with the device at the other end.  This key negotiation takes place
  256. without the Clipper Chip.  In general, any method of key exchange can
  257. be used such as the Diffie-Hellman public-key distribution method.
  258.  
  259. Once the session key K is established, the Clipper Chip is used to
  260. encrypt the conversation or message stream M (digitized voice).  The
  261. telephone security device feeds K and M into the chip to produce two
  262. values:
  263.  
  264.    E[M; K], the encrypted message stream, and 
  265.    E[E[K; U] + N; F], a law enforcement field , 
  266.  
  267. which are transmitted over the telephone line.  The law enforcement
  268. field thus contains the session key K encrypted under the unit key U
  269. concatenated with the serial number N, all encrypted under the family
  270. key F.  The law enforcement field is decrypted by law enforcement after
  271. an authorized wiretap has been installed.
  272.  
  273. The ciphertext E[M; K] is decrypted by the receiver's device using the
  274. session key:
  275.  
  276.    D[E[M; K]; K] = M .
  277.  
  278.  
  279. CHIP PROGRAMMING AND ESCROW
  280.  
  281. All Clipper Chips are programmed inside a SCIF (Secure Compartmented
  282. Information Facility), which is essentially a vault.  The SCIF contains
  283. a laptop computer and equipment to program the chips.  About 300 chips
  284. are programmed during a single session.  The SCIF is located at
  285. Mykotronx.
  286.  
  287. At the beginning of a session, a trusted agent from each of the two key
  288. escrow agencies enters the vault.  Agent 1 enters a secret, random
  289. 80-bit value S1 into the laptop and agent 2 enters a secret, random
  290. 80-bit value S2. These random values serve as seeds to generate unit
  291. keys for a sequence of serial numbers.  Thus, the unit keys are a
  292. function of 160 secret, random bits, where each agent knows only 80.
  293.   
  294. To generate the unit key for a serial number N, the 30-bit value N is
  295. first padded with a fixed 34-bit block to produce a 64-bit block N1.
  296. S1 and S2 are then used as keys to triple-encrypt N1, producing a
  297. 64-bit block R1:
  298.  
  299.         R1 = E[D[E[N1; S1]; S2]; S1] .
  300.  
  301. Similarly, N is padded with two other 34-bit blocks to produce N2 and
  302. N3, and two additional 64-bit blocks R2 and R3 are computed:  
  303.  
  304.         R2 = E[D[E[N2; S1]; S2]; S1] 
  305.         R3 = E[D[E[N3; S1]; S2]; S1] .
  306.  
  307. R1, R2, and R3 are then concatenated together, giving 192 bits. The
  308. first 80 bits are assigned to U1 and the second 80 bits to U2.  The
  309. rest are discarded.  The unit key U is the XOR of U1 and U2.  U1 and U2
  310. are the key parts that are separately escrowed with the two escrow
  311. agencies.
  312.  
  313. As a sequence of values for U1, U2, and U are generated, they are
  314. written onto three separate floppy disks.  The first disk contains a
  315. file for each serial number that contains the corresponding key part
  316. U1.  The second disk is similar but contains the U2 values.  The third
  317. disk contains the unit keys U.  Agent 1 takes the first disk and agent
  318. 2 takes the second disk.  Thus each agent walks away knowing
  319. an 80-bit seed and the 80-bit key parts.  However, the agent does not
  320. know the other 80 bits used to generate the keys or the other 80-bit
  321. key parts.  
  322.  
  323. The third disk is used to program the chips.  After the chips are
  324. programmed, all information is discarded from the vault and the agents
  325. leave.  The laptop may be destroyed for additional assurance that no
  326. information is left behind.
  327.  
  328. The protocol may be changed slightly so that four people are in the
  329. room instead of two.  The first two would provide the seeds S1 and S2,
  330. and the second two (the escrow agents) would take the disks back to
  331. the escrow agencies. 
  332.  
  333. The escrow agencies have as yet to be determined, but they will not
  334. be the NSA, CIA, FBI, or any other law enforcement agency.  One or
  335. both may be independent from the government.
  336.  
  337.  
  338. LAW ENFORCEMENT USE
  339.  
  340. When law enforcement has been authorized to tap an encrypted line, they
  341. will first take the warrant to the service provider in order to get
  342. access to the communications line.  Let us assume that the tap is in
  343. place and that they have determined that the line is encrypted with the
  344. Clipper Chip.  The law enforcement field is first decrypted with the
  345. family key F, giving E[K; U] + N.  Documentation certifying that a tap
  346. has been authorized for the party associated with serial number N is
  347. then sent (e.g., via secure FAX) to each of the key escrow agents, who
  348. return (e.g., also via secure FAX) U1 and U2.  U1 and U2 are XORed
  349. together to produce the unit key U, and E[K; U] is decrypted to get the
  350. session key K.  Finally the message stream is decrypted.  All this will
  351. be accomplished through a special black box decoder.
  352.  
  353.  
  354. CAPSTONE: THE NEXT GENERATION
  355.  
  356. A successor to the Clipper Chip, called "Capstone" by the government
  357. and "MYK-80" by Mykotronx, has already been developed.  It will include
  358. the Skipjack algorithm, the Digital Signature Standard (DSS), the
  359. Secure Hash Algorithm (SHA), a method of key exchange, a fast
  360. exponentiator, and a randomizer.  A prototoype will be available for
  361. testing on April 22, and the chips are expected to be ready for
  362. delivery in June or July.
  363.  
  364.  
  365. ACKNOWLEDGMENT AND DISTRIBUTION NOTICE.  This article is based on
  366. information provided by NSA, NIST, FBI, and Mykotronx.  Permission to
  367. distribute this document is granted.
  368.  
  369. ------------------------------
  370.  
  371. Date:    Mon, 19 Apr 93 9:21:53 EDT
  372. From:    Clipper Chip Announcement <clipper@first.org>
  373. Subject: Slide presented at White House briefing on Clipper Chip
  374.  
  375. Note:     The following material was handed out a press briefing on the
  376.           Clipper Chip on 4/16.
  377.  
  378.                               Chip Operation
  379.  
  380.                          Microchip
  381. User's Message      +----------------------+
  382. ------------------> |                      |      1.  Message encrypted
  383.                     | Encryption Algorithm |          with user's key
  384.                     |                      |
  385.                     | Serial #             |      2.  User's key encrypted
  386.                     |                      |-->       with chip unique key
  387.                     | Chip Unique Key      |
  388. User's Encryption   |                      |      3.  Serial # encrypted
  389. Key                 | Chip Family Key      |          with chip family key
  390. ------------------> |                      |
  391.                     |                      |
  392.                     +----------------------+
  393.  
  394.  
  395.                              ----------------
  396.  
  397.               For Law Enforcement to Read a Suspect's Message
  398.  
  399. 1.  Need to obtain court authorized warrant to tap the suspect's telephone.
  400.  
  401. 2.  Record encrypted message
  402.  
  403. 3.  Use chip family key to decrypt chip serial number
  404.  
  405. 4.  Take this serial number *and* court order to custodians 
  406.     of disks A and B
  407.  
  408. 5.  Add the A and B components for that serial number = the chip
  409.     unique key for the suspect user
  410.  
  411. 6.  Use this key to decrypt the user's message key for 
  412.     this recorded message
  413.  
  414. 7.  Finally, use this message key to decrypt the recorded message.
  415.  
  416. ------------------------------
  417.  
  418. Date:    Fri, 16 Apr 93 22:44:32 EDT
  419. From:    John R. Levine <johnl@iecc.cambridge.ma.us>
  420. Subject: Clipper Chip questions
  421.  
  422. Leaving aside the fundamental bogosity of the proposal, I have some
  423. technical questions:
  424.  
  425. -- Evidently each chip has its own pair of keys, or else each group of
  426. chips does (the latter meaning that the scheme would only be useful for
  427. closed networks that only talk to themselves, e.g. ATMs and a bank's
  428. central computer.)  Lacking physical access to the tappee's equipment, how
  429. do the cops know which pair of keys they need?  Presumably the chip
  430. broadcasts its serial number from time to time.  Hmmn.
  431.  
  432. -- The Q and A says that they're keeping the algorithm secret to protect
  433. the security of the key escrow, which is a most peculiar claim.  The most
  434. plausible reasons I can think of to keep the scheme secret are A) they use
  435. a new super-duper scheme invented by the NSA and want to keep it from the
  436. rest of the world, B) they use a known bad scheme and want to shut up the
  437. people who would point that out, C) they use a technically respectable
  438. scheme but believe in security through obscurity.  I'm completely in the
  439. dark about what this has to do with the key escrow, though.
  440.  
  441. -- Is there any precedent for classifying the workings of a device that is
  442. sold to the public?  My impression is that classification has been
  443. heretofore reserved for information related to the armed services and to
  444. foreign policy.  If I managed to reverse engineer the device without
  445. access to secret information and published my results, would that break
  446. any laws?  (Compare to the Princeton student who developed a workable
  447. design for an atomic bomb quite legally using non-classified sources.)
  448.  
  449. -- Who is this outfit Mykotronx who is making the chip?  And where are
  450. they fabricating it?
  451.  
  452. -- 
  453. Regards,
  454. John Levine, johnl@iecc.cambridge.ma.us, {spdcc|ima|world}!iecc!johnl
  455.  
  456. ------------------------------
  457.  
  458. Date:    Sat, 17 Apr 1993 13:07:22 -0400
  459. From:    Bob Leone <leone@gandalf.ssw.com>
  460. Subject: clipper chip encryption
  461.  
  462. regarding use of "clipper" chip to encrypt telephone transmissions (but not
  463. in such a way as to stop the feds from snooping when they so desire):
  464.  
  465. This is one of the silliest ideas to come out of Washington in a long while.
  466. "Terrorists, drug dealers, and other criminals" will not bother using the
  467. system. With the advent of cheap-but-powerful notebook computers, coupled
  468. with integrated modems, voice digitization, etc, very soon it will be
  469. possible for anyone desiring secure communication (secure even from govt),
  470. to have a laptop which will digitize, encrypt, and digitally transmit
  471. his voice to another laptop (which would do the inverse transformation).
  472. Given the rate of technological advance, and the rate that multi-media
  473. technology is being incorporated in PCs, I would expect that defeating
  474. technology will be deployed much sooner than the clipper chip will be.
  475.  
  476. Does the govt really believe that drug dealers doing a multi-million-dollar
  477. business will be unable to easily afford defeating technology? Or that
  478. they would communicate using equipment that everyone knows is specially
  479. tailored for govt monitoring?
  480.  
  481.  
  482. Bob Leone
  483.  
  484. ------------------------------
  485.  
  486. Date:    Sat, 17 Apr 93 22:12:57 EET
  487. From:    flb@flb.optiplan.fi (F.Baube[tm])
  488. Reply-To: baube@optiplan.fi
  489. Subject: Clipper Chip Announcement
  490.  
  491. Some thoughts on the suitability of the White House proposal for achieving
  492. the stated ends, and a possible outcome.
  493.  
  494. Let us say that I and some correspondents of mine have purchased (from
  495. abroad one supposes) special-purpose encryption units that implement an
  496. algorithm not break- able by the authorities.  Let us call these units PIP,
  497. for Pretty Impregnable Privacy.
  498.  
  499. I use this PIP unit surreptitiously when communicating with my
  500. correspondents.  I have prudently also purchased a government-approved
  501. Clipper unit, so that I can of course communicate with other normal Clipper
  502. units, but *also* so that a "casual eavesdropper" would detect nothing amiss
  503. on my line: since I possess said Clipper unit, one of course *expects* my
  504. communications to be encrypted.
  505.  
  506. If the government holds true to its word, not assembling the key except with
  507. a court's permission, then under ordinary circumstances, no-one in law
  508. enforcement need know that I sometimes use this special PIP unit.  Without
  509. using the completed Clipper key, the authorities cannot distin- guish a data
  510. stream generated by my PIP unit from a data stream generated by my decidedly
  511. legal Clipper unit.
  512.  
  513. The poser comes if it should come to pass that law enforce- ment does obtain
  514. a warrant, assembles the key halves, and finds they cannot decrypt my
  515. communications.  What do they do now ?
  516.  
  517. IF the law states that ownership and use of superior encryption is
  518. illegal, then do they have grounds to raid my premises and confiscate my
  519. PIP unit, along with anything else that supports their investigation ?
  520. Because if they cannot simply raid my premises, and instead must go thru
  521. less intru- sive procedures to stop my using my PIP unit, then of course I
  522. *know* I am under surveillance; *if* I have been using it for illegal
  523. purposes, I can act accordingly, to avoid being "caught with the goods".
  524.  
  525. Whereas on the other hand, if use of superior encryption equipment is NOT
  526. prohibited, its use might well become wide spread.  Consider: if
  527. super-crypto is outlawed, only outlaws will have super-crypto; but if it is
  528. legal and affordable, and purched by any American valuing his or her
  529. privacy, this will over time severely dent the authorities' ability to
  530. conduct wiretap surveillance.
  531.  
  532. This argument would seem to point inexorably towards prohi bition of the use
  533. of superior encryption, and a government right of search and seizure if its
  534. use is detected.  But to restate: if I and my correspondents do use it
  535. anyways, for whatever reasons known only to us (we're not telling !), then
  536. does this make us subject to search and seizure on these grounds only:
  537. possession of a particular technical capability whose main effect is to
  538. enhance our privacy ?  Am I to be an outlaw, merely for having
  539. outlaw-quality crypto ?
  540.  
  541. With PIP in my den, I and my correspondents, perhaps acti- vists for a
  542. liberal cause out of favor with the authorities, have fewer fears of being
  543. the target of a COINTELPRO-style program.  Nor need we fear development of
  544. Clipper-cracking technology by other parties.  And when the technology comes
  545. into being for real-time comprehension of the spoken word, I do not need to
  546. worry about having the contents of my every phone call added to a data bank
  547. somewhere, no matter what the prevailing political mood is, and no matter
  548. what degree of lawbreaking there is by the guardians of the law.  
  549.  
  550. And there certainly seems to have been plenty of *that* in the last 25 years.
  551.  
  552. -- 
  553. * Fred Baube (tm)         *  In times of intellectual ferment,
  554. * baube@optiplan.fi       * advantage to him with the intellect
  555. * #include <disclaimer.h> * most fermented !
  556. * May '68, Paris: It's Retrospective Time !!  
  557.  
  558. ------------------------------
  559.  
  560. Date:    Sun, 18 Apr 93 09:44:41 -0400
  561. From:    padgett@tccslr.dnet.mmc.com (A. Padgett Peterson)
  562. Subject: Clipper Chips (USC ?)
  563.  
  564. Clipper Chip (shades of 1812 - first Mil-Std-1815 and now this 8*)
  565.  
  566. As you may know, for some years I have been pushing for a token-pin-challenge
  567. based encryption system for session as well as password encryption & this
  568. IMHO answers many questions posed by the CC.
  569.  
  570. I suspect from the wording is that the prime use of the "Baltimore Clipper"
  571. will be for cellular telephony. Already there is enormous pressure,
  572. primarily resulting from the very high levels of toll faud, to encrypt
  573. cellular phone communications. Today you have essentially three choices
  574. in cell phone use: a) don't, b) in the clear, or c) STU-III. This would
  575. provide a fourth choice. In this case the double key is acceptable but
  576. does raise the question of how well are the telco's going to protect them ?
  577. (no more roaming ?)
  578.  
  579. The field of digital computer communications is as different as Jib from
  580. Genoa - the concept is the same but the requirements are entirely different:
  581.  
  582. 1: Instead of having to reveal the keys to a single telco, it will have to
  583.    be revealed to multiple sites (single sign-on will help but not eliminate
  584.    the problem).
  585.  
  586. 2: If the key is lost, does the device become worthless ? If field
  587.    programmable, what will stop someone from doing so ? The authorities
  588.    would not find out until they obtained the court order & the keys and
  589.    found that they still could not decrypt it. Then what ?
  590.  
  591. Since I have been thinking about this for quite some time, I do have some
  592. thoughts however since the government chose not to ask, I doubt that they
  593. could be incorporated into the existing Clipper. However I would like to
  594. present them for your consideration:
  595.  
  596. a) Each Clipper II is programmed with a subset of a very complex code: say of
  597.    a key and algorithm matrix (the two pieces) capable of 2^112 combinations,
  598.    each chip uses a subset capable of 2^20 (1 million) combinations, each of
  599.    more than DES strength (I know, these are big numbers but computers are 
  600.    good at that & this is just for thought - actual numbers could be firmed 
  601.    up later.
  602.  
  603. b) A program is included that will pick a unique key/algorithm combination
  604.    for each communications path. With a million possible combinations, it
  605.    is doubtful that anyone would run out.
  606.  
  607. c) Since the GOV would have the full key/algorithm set for that chip,
  608.    decoding would merely be a matter of a 2^20 search, a few seconds & made
  609.    simpler if the initial handshake & synch were defined. To a holder of a
  610.    single key, the set of required searches would be much larger (2^112 or
  611.    double DES). If a key is disclosed, that using pair simply selects a
  612.    different one without having to change the others.
  613.  
  614. Thoughts ? To me the biggest problem is: How would two Clipper Chips, one
  615. on each end be able to interpret each other - would you use two key/algorithm
  616. pairs, one for each direction ? The chip might be built with a fixed
  617. send and a programmable receive. Still simple, just several possibilities.
  618.  
  619. For that matter, it might be possible for each transmission use a 
  620. combination of the keyset used at *both ends*. Either would provide
  621. additional protection in that a wiretap order would apply only
  622. to specific sites/conversations and would need both keys. More food for 
  623. thought.
  624.  
  625.                                                   Warmly,
  626.                                                             Padgett
  627.  
  628. ------------------------------
  629.  
  630. Date:    Mon, 19 Apr 93 10:06:38 EDT
  631. From:    Tom Zmudzinski <zmudzint@CC.ims.disa.mil>
  632. Subject: Re: Which countries outlaw encryption? [Privacy #13]
  633.  
  634.   So spake: "Dave Bakken" <bakken@cs.arizona.edu> 16 Apr 1993 14:51 MST
  635.  
  636. >   Friday's announcement about the new Clipper Chip
  637. >   mentioned in passing that some countries have effectively
  638. >   outlawed encryption.  Where can one find a list of such countries
  639. >   or a paper discussing this?  Thanks!
  640.  
  641.   I can share only partial information (but I do have it on the highest
  642.   authority -- personal experience):  FRANCE and ENGLAND do not permit
  643.   private use of encryption (specific details vary -- this is news?).
  644.   Can anyone else add to the list?
  645.  
  646.   /z/
  647.  
  648.   Copyright (c) 1993 by Thomas E. Zmudzinski.  All Rights Reserved.
  649.   Permission granted to PRIVACY FORUM for posting, and ELECTRONIC reposting
  650.   is permitted in its ENTIRETY, with this notice intact.  Printed (hard-)
  651.   copy may only be made for personal (non-profit) use.  The author retains
  652.   all rights to the material herein.  Otherwise bad karma may result.
  653.  
  654. ------------------------------
  655.  
  656. Date:    Mon, 19 Apr 93 13:28:56 EDT
  657. From:    sep24@cas.org (Steve Piehler)
  658. Subject: Clipper announcement and asset seizure
  659.  
  660. The Public Encryption Management Fact Sheet contains this tidbit:
  661.  
  662. > PROCUREMENT AND USE OF ENCRYPTION DEVICES
  663. >
  664. > [paragraph deleted]
  665. >
  666. > The Attorney General will procure and utilize encryption devices to
  667. > the extent needed to preserve the government's ability to conduct
  668. > lawful electronic surveillance and to fulfill the need for secure
  669. > law enforcement communications.  Further, the Attorney General
  670. > shall utilize funds from the Department of Justice Asset Forfeiture
  671. > Super Surplus Fund to effect this purchase.
  672.  
  673. Is this Asset Forteiture Super Surplus Fund the place where, for example, cash
  674. seized in drug busts goes?  After reading several horror stories of assets being
  675. seized with no charges filed and speculation that some busts occur mainly to
  676. acquire cash and property, I hope this Clipper announcement does not give law
  677. enforcement officials more incentive to conduct raids.  (Administrator to field
  678. officers:  "We need a secure phone.  Who can we bust that will have $199.95 on
  679. hand?")
  680.  
  681. ------------------------------
  682.  
  683. Date:    Tue, 20 Apr 1993 10:41:47 -0400
  684. From:    cstern@novus.com (Chuck Stern)
  685. Subject: Re: Clipper Key announcement
  686.  
  687. >
  688. >Subject: text of White House announcement and Q&As on clipper chip encryption
  689.  
  690. [ the MODERATOR sez: ]
  691. >     A few general thoughts do seem appropriate, though.  There are
  692. >     clearly several different aspects of this announcement that
  693. >     need to be carefuly considered.  
  694. >...
  695. >
  696. >     Another aspect revolves around how this technology and its use
  697. >     would relate to current and future wiretap law and the actual
  698. >     interception of communications, regardless of whether or not
  699. >     intercepted data were immediately decoded.
  700. >
  701. >     Finally, there's the whole issue of "public trust" as it
  702. >     relates to the concept of the proposed "key escrow" system and
  703. >     the conditions under which those split keys would be assembled
  704. >     and utilized.
  705. >
  706.  
  707. A debate here is whether such a system will maintain the status quo vis-a-vis
  708. wiretaps and electronic surveillance.  I think that this scheme will do so
  709. (although I'm leery of the NSA proposing something for use by non-military
  710. entities).
  711.  
  712. The question is whether the status quo effectively guarantees a citizen's
  713. rights against unauthorized or illegal surveillance by the government.
  714.  
  715. The numbers (of authorized wiretaps) are not the telling part of the
  716. statistics.  If I remember correctly, the various units of local and federal
  717. government have gotten on the order of 2 000 wiretap authorizations over the
  718. past year.  This is a vanishingly small number as a percentage of total
  719. telephone and data circuits in the US system.  The danger is not from
  720. authorized wiretaps, but from unauthorized ones.
  721.  
  722. The FBI, especially under Hoover, conducted unauthorized wiretaps on citizens
  723. of the US, not because of suspected criminal behavior, but because of their
  724. political beliefs.  Because of the revelations about these wiretaps (and the
  725. death of Hoover), the FBI had been put on somewhat of a shorter leash.
  726.  
  727. At the risk of sounding like Chicken Little (for non-US readers, Chicken
  728. Little was hit on the head by an acorn but created a Crisis in Farmland by
  729. saying that the "sky is falling") (where was I? oh yes) our civil liberties
  730. are quickly being eroded by the current court's contraction of the
  731. exclusionary rule.  The exclusionary rule says in short that any evidence
  732. that is gained as a direct result of illegal conduct by the police cannot be
  733. considered as evidence in a criminal proceeding.  This had been expanded to
  734. the "fruit of a poisoned tree" doctrine: for example, the evidence obtained
  735. via a legally obtained search warrant, if the 'probable cause' for the search
  736. warrant was obtained via an illegal wiretap, should be excluded.  Under the
  737. current court, however, the exclusionary rule has been relaxed: if the police
  738. were 'acting in good faith,' then the evidence obtained via an illegally or
  739. improperly executed search warrant (for example) is admissable.
  740.  
  741. All of this leads me to my conclusion that the given the current court makeup
  742. and the "War on Drugs", the current wiretap laws do not offer sufficient
  743. guarantees of our civil rights to justify maintaining the status quo.  With
  744. that, I come to the further conclusion that a key that is breakable, or one
  745. whose constituent parts are held by two different governmental agencies, does
  746. nothing except further the government's encroachment into our lives.
  747.  
  748. I am not proposing that we hamper law enforcement agencies from doing their
  749. legitimate jobs of 1) upholding the law of the land and 2) protecting
  750. citizens from having their rights trampled by other citizens.  I am proposing
  751. that we make it harder for agencies of the government to illegally collect
  752. information on its citizens.  I do not trust the government to not expand its
  753. power to, ultimately, pass a law that will make useless privately-owned
  754. encryption schemes, and I think that this split-key proposal is the first
  755. step in this direction.
  756.  
  757.     Chuck Stern
  758.  
  759. ------------------------------
  760.  
  761. Date:    Wed, 21 Apr 93 16:54:14 EDT
  762. From:    "Lance J. Hoffman" <hoffman@seas.gwu.edu>
  763. Subject: Clipper and Who Holds Crypto Keys
  764.  
  765. In the light of the recent Clipper announcement, forum readers may wish
  766. to revisit the discussions of "Who Holds the Keys?".  A good place to
  767. start, in addition to some of the material in CACM of March 1993 (which
  768. relates mainly to the FBI's digital telephony initiative), is Proceedings
  769. of the 2nd Conference on Computers, Freedom, and Privacy (order no. 533921
  770. from ACM Press, 1515 Broadway, New York NY 10036.  The same discussion is
  771. available on audiotape from Audio Archives International, 800 747-8069 and
  772. on videotape from Sweet Pea Productions, 800 235-4922 (cfpvideo@well.sf.ca.us).
  773.  
  774. -- 
  775. Professor Lance J. Hoffman
  776. Department of Electrical Engineering and Computer Science
  777. The George Washington University
  778. Washington, D. C. 20052
  779.  
  780. (202) 994-4955
  781. fax: (202) 994-0227
  782. hoffman@seas.gwu.edu
  783.  
  784. ------------------------------
  785.  
  786. End of PRIVACY Forum Digest 02.14
  787. ************************
  788.