home *** CD-ROM | disk | FTP | other *** search
/ Internet Info 1997 December / Internet_Info_CD-ROM_Walnut_Creek_December_1997.iso / faqs / sci / crypt / Avoiding_bogus_encryption_products:_Snake_Oil_FAQ < prev   
Text File  |  1997-10-13  |  31KB  |  653 lines

  1. Path: senator-bedfellow.mit.edu!bloom-beacon.mit.edu!news-out.internetmci.com!newsfeed.internetmci.com!206.229.87.25!news-peer.sprintlink.net!news-pull.sprintlink.net!news-in-east.sprintlink.net!news.sprintlink.net!Sprint!206.230.32.7!news2.ee.net!usenet
  2. From: C Matthew Curtin <cmcurtin@research.megasoft.com>
  3. Newsgroups: sci.crypt,alt.security,comp.security,comp.infosystems,comp.answers,sci.answers,alt.answers,news.answers
  4. Subject: Avoiding bogus encryption products: Snake Oil FAQ
  5. Followup-To: poster
  6. Date: 12 Oct 1997 17:43:53 -0400
  7. Organization: Megasoft Research
  8. Lines: 635
  9. Sender: cmcurtin@hawking.research.megasoft.com
  10. Approved: news-answers-request@MIT.EDU
  11. Message-ID: <86bu0u7j3a.fsf@hawking.research.megasoft.com>
  12. NNTP-Posting-Host: gw.research.megasoft.com
  13. Summary: Identifying and avoiding weak cryptography products.
  14. X-Face: "&>g(&eGr?u^F:nFihL%BsyS1[tCqG7}I2rGk4{aKJ5I_5A\*6RYn4"N.`1pPF9LO!Fa<(gj:12)?=uP2l01e10Gij"7j&-)torL^iBrNf\s7PDLm=rf[PjxtSbZ{J(@@j"q2/iV9^Mx<e%nT[:7s7.-#u*}GAH,bEfbfh-NDqSG`+s
  15. X-Newsreader: Gnus v5.4.37/XEmacs 19.15
  16. Xref: senator-bedfellow.mit.edu sci.crypt:71194 alt.security:46844 comp.infosystems:10499 comp.answers:28468 sci.answers:7216 alt.answers:29523 news.answers:114332
  17.  
  18. URL: http://www.research.megasoft.com/people/cmcurtin/snake-oil-faq.html
  19. Version: 1.6
  20. Archive-name: cryptography-faq/snake-oil
  21. Posting-Frequency: monthly
  22.  
  23.                           Snake Oil Warning Signs:
  24.                         Encryption Software to Avoid
  25.  
  26.                             Copyright ⌐1996, 1997
  27.                 Matt Curtin <cmcurtin@research.megasoft.com>
  28.  
  29.                                April 9, 1997
  30.  
  31. Contents
  32.  
  33.  
  34.    * Introduction
  35.    * Basic Concepts
  36.         o Symmetric vs. Asymmetric Cryptography
  37.         o Secrecy vs. Integrity: What are you trying to protect?
  38.         o Key Sizes
  39.         o Keys vs. Passphrases
  40.         o Implementation Environment
  41.    * Snake Oil Warning Signs
  42.         o ``Trust Us, We Know What We're Doing''
  43.         o Technobabble
  44.         o Secret Algorithms
  45.         o Revolutionary Breakthroughs
  46.         o Experienced Security Experts, Rave Reviews, and Other Useless
  47.           Certificates
  48.         o Unbreakability
  49.         o One-Time-Pads
  50.         o Algorithm or product X is insecure
  51.         o Recoverable Keys
  52.         o Exportable from the USA
  53.         o ``Military Grade''
  54.    * Other Considerations
  55.    * Glossary
  56.    * Index
  57.    * References
  58.    * About this document ...
  59.  
  60. Administrativia
  61.  
  62. Distribution
  63.  
  64. Distribution of this document is unlimited. We're specifically trying to
  65. reach people who are not experts in cryptography or security but find
  66. themselves making decisions about what sorts of crypto (if any) to use, both
  67. for their organizations and for themselves.
  68.  
  69. The Snake Oil FAQ is posted monthly to sci.crypt, alt.security,
  70. comp.security, comp.answers, and comp.infosystems. It is available in
  71. PostScript form (ideal for printing) via the web at
  72.  
  73.      http://www.research.megasoft.com/people/cmcurtin/snake-oil-faq.ps
  74.  
  75. and HTML at
  76.  
  77.      http://www.research.megasoft.com/people/cmcurtin/snake-oil-faq.html
  78.  
  79. Disclaimer
  80.  
  81. All contributors' employers will no doubt disown any statements herein.
  82. We're not speaking for anyone but ourselves.
  83.  
  84. This is a compilation of common habits of snake oil vendors. It cannot be
  85. the sole method of rating a security product, since there can be exceptions
  86. to most of these rules. From time to time, a reputable vendor will produce
  87. something that is actually quite good, but will promote it with braindead
  88. marketing techniques. But if you're looking at something that exhibits
  89. several warning signs, you're probably dealing with snake oil.
  90.  
  91. Every effort has been made to produce an accurate and useful document, but
  92. the information herein is completely without warranty. This is a
  93. work-in-progress; feedback is greatly appreciated. If you find any errors or
  94. otherwise wish to contribute, please contact the document keeper, Matt
  95. Curtin <cmcurtin@research.megasoft.com>
  96.  
  97. Document History
  98.  
  99. With the rise in the number of crypto products came a rise in the number of
  100. ineffective or outright bogus products. After some discussion about this on
  101. the cypherpunks list, Robert Rothenburg <wlkngowl@unix.asb.com> wrote the
  102. first iteration of the Snake Oil FAQ. Matt Curtin took the early text and
  103. munged it into its current state with the help of the listed contributors
  104. (and probably some others whose names have inadvertently missed. Sorry in
  105. advance, if this is the case.)
  106.  
  107. Contributors
  108.  
  109. The following folks have contributed to this FAQ.
  110. Jeremey Barrett <jeremey@forequest.com>
  111. Steven M. Bellovin <smb@research.att.com>
  112. Matt Blaze <mab@research.att.com>
  113. Bo D÷mstedt <bo.domstedt@protego.se>
  114. Gary Ellison <gary.f.ellison@att.com>
  115. <fifersl@ibm.net>
  116. <geeman@best.com>
  117. Larry Kilgallen <KILGALLEN@Eisner.DECUS.Org>
  118. Dutra Lacerda <dutra.lacerda@mail.telepac.pt>
  119. Felix Lee <flee@teleport.com>
  120. Colin Plumb <colin@nyx.net>
  121. Jim Ray <liberty@gate.net>
  122. Terry Ritter <ritter@io.com>
  123. Robert Rothenburg <wlkngowl@unix.asb.com>
  124. Adam Shostack <adam@homeport.org>
  125. Rick Smith <smith@sctc.com>
  126. Randall Williams <ac387@yfn.ysu.edu>
  127.  
  128. Introduction
  129.  
  130. Good cryptography is an excellent and necessary tool for almost anyone. Many
  131. good cryptographic products are available commercially, as shareware, or
  132. free. However, there are also extremely bad cryptographic products which not
  133. only fail to provide security, but also contribute to the many
  134. misconceptions and misunderstandings surrounding cryptography and security.
  135.  
  136. Why ``snake oil''? The term is used in many fields to denote something sold
  137. without consideration of its quality or its ability to fulfill its vendor's
  138. claims. This term originally applied to elixirs sold in traveling medicine
  139. shows. The salesmen would claim their elixir would cure just about any
  140. ailment that a potential customer could have. Listening to the claims made
  141. by some crypto vendors, ``snake oil'' is a surprisingly apt name.
  142.  
  143. Superficially, it is difficult to distinguish snake oil from the Real Thing:
  144. all encryption utilities produce garbled output. The purpose of this
  145. document is to present some simple ``red flags'' that can help you detect
  146. snake oil.
  147.  
  148. For a variety of reasons, this document does not mention specific products
  149. or algorithms as being ``good'' or ``snake oil.''
  150.  
  151. Basic Concepts
  152.  
  153. In an effort to make this FAQ more complete, some basic information is
  154. covered here. The Cryptography FAQ [3] is a more general tutorial of
  155. cryptography and should also be consulted.
  156.  
  157. When evaluating any product, be sure to understand your needs. For data
  158. security products, what are you trying to protect? Do you want a data
  159. archiver, an e-mail plug-in, or something that encrypts on-line
  160. communications? Do you need to encrypt an entire disk or just a few files?
  161.  
  162. And how secure is secure enough? Does the data need to be unreadable by
  163. ``spies'' for five minutes, one year, or 100 years? Is the spy someone's kid
  164. sister, a corporation, or a government?
  165.  
  166. Symmetric vs. Asymmetric Cryptography
  167.  
  168. There are two basic types of cryptosystems: symmetric (also known as
  169. ``conventional'' or ``secret key'') and asymmetric (``public key.'')
  170.  
  171. Symmetric ciphers require both the sender and the recipient to have the same
  172. key. This key is used by the sender to encrypt the data, and again by the
  173. recipient to decrypt the data. The problem here is getting the sender and
  174. recipient to share the key.
  175.  
  176. Asymmetric ciphers are much more flexible from a key management perspective.
  177. Each user has a pair of keys: a public key and a private key. Messages
  178. encrypted with one key can only be decrypted by the other key. The public
  179. key can be published widely while the private key is kept secret.
  180.  
  181. So if Alice wishes to send Bob some secrets, she simply finds and verifies
  182. Bob's public key, encrypts her message with it, and mails it off to Bob.
  183. When Bob gets the message, he uses his private key to decrypt it.
  184.  
  185. Verification of public keys is an important step. Failure to verify that the
  186. public key really does belong to Bob leaves open the possibility that Alice
  187. is using a key whose associated private key is in the hands of an enemy.
  188.  
  189. Asymmetric ciphers are much slower than their symmetric counterparts. Also,
  190. key sizes generally must be much larger. See the Cryptography FAQ [3] for a
  191. more detailed discussion of these topics.
  192.  
  193. Secrecy vs. Integrity: What are you trying to protect?
  194.  
  195. For many users of computer-based crypto, preserving the contents of a
  196. message is as important as protecting its secrecy. Damage caused by
  197. tampering can often be worse than damage caused by disclosure. For example,
  198. it may be disquieting to discover that a hacker has read the contents of
  199. your funds-transfer authorization, but it's a disaster for him to change the
  200. transfer destination to his own account.
  201.  
  202. Encryption by itself does not protect a message from tampering. In fact,
  203. there are several techniques for changing the contents of an encrypted
  204. message without ever figuring out the encryption key. If the integrity of
  205. your messages is important, don't rely on just secrecy to protect them.
  206. Check how the vendor protects messages from undetected modification.
  207.  
  208. Key Sizes
  209.  
  210. Even if a cipher is secure against analytical attacks, it will be vulnerable
  211. to brute-force attacks if the key is too small. In a brute-force attack, the
  212. attacker simply tries every possible key until the right one is found. How
  213. long this takes depends on the size of the key and the amount of processing
  214. power available. So when trying to secure data, you need to consider how
  215. long it must remain secure and how much computing power an attacker can use.
  216.  
  217. [1] and [2] offer some guidelines for choosing an appropriate key length.
  218. For instance, Table 1 shows the cost of breaking symmetric keys by brute
  219. force, as noted by [2]. This same report strongly recommends using symmetric
  220. keys of 90 bits or more.
  221.  
  222.  
  223.                    Table 1: Time and Cost of Key Recovery
  224.  
  225.      Type of                           Time and Cost per  Length Needed for
  226.      Attacker     Budget      Tool        40-bit Key     Protection in Late
  227.                                            Recovered            1995
  228. ======================================================================
  229.                          Scavenged
  230.  Pedestrian      Tiny    Computer Time 1 Week            45
  231.  Hacker          --------------------------------------
  232.                  $400    FPGA          5 Hours ($0.08)   50
  233. ----------------------------------------------------------------------
  234.  Small business  $10,000 FPGA          12 Minutes        55
  235.                                        ($0.08)
  236. ----------------------------------------------------------------------
  237.                          FPGA          24 seconds
  238.  Corporate                             ($0.08)
  239.  Department      $300K   ------------------------------
  240.                                        .005 seconds      60
  241.                          ASIC
  242.                                        ($.001)
  243. ----------------------------------------------------------------------
  244.                          FPGA          .7 seconds
  245.  Big Company     $10M                  .0005 seconds   
  246.                          ------------------------------  70
  247.                          ASIC          ($0.001)
  248. ----------------------------------------------------------------------
  249.  Intelligence                          .0002 seconds
  250.  Agency          $300M   ASIC          ($0.001)          75
  251.  
  252. As mentioned earlier, asymmetric ciphers typically require significantly
  253. longer keys to provide the same level of security as symmetric ciphers.
  254. Comparing key lengths between algorithms is awkward because different
  255. algorithms have different characteristics. Knowing the key size is useless
  256. if you don't know what type of algorithm is being used.
  257.  
  258. But to give you some idea of what's reasonable, Table 2, from [1], compares
  259. symmetric keys against one type of asymmetric key: those based on the
  260. ``factoring problem'' or the ``discrete log problem.'' (Algorithms based on
  261. the ``elliptical curve discrete log problem'' are more resistant to
  262. brute-force attacks and can use much smaller keys. In fact, they don't have
  263. to be much larger than symmetric keys, as far as we know right now.)
  264.  
  265.  
  266.  
  267. Keys vs. Passphrases
  268.  
  269.    Table 2: Key Lengths With Similar
  270.    Resistance to Brute-Force Attacks
  271.  
  272.  Symmetric Key Length Public Key Length
  273.   56 bits             384 bits
  274.   64 bits             512 bits
  275.   80 bits             768 bits
  276.  112 bits            1792 bits
  277.  128 bits            2304 bits
  278.  
  279. A ``key'' is not the same thing as a ``passphrase'' or ``password.'' In
  280. order to resist attack, all possible keys must be equally probable. If some
  281. keys are more likely to be used than others, then an attacker can use this
  282. information to reduce the work needed to break the cipher.
  283.  
  284. Essentially, the key must be random. However, a passphrase generally needs
  285. to be easy to remember, so it has significantly less randomness than its
  286. length suggests. For example, a 20-letter English phrase, rather than having
  287. 20 x 8 = 150 bits of randomness, only has about 20 x 2 = 40 bits of
  288. randomness.
  289.  
  290. So, most cryptographic software will convert a passphrase into a key through
  291. a process called ``hashing'' or initialization vector``key initialization.''
  292. Avoid cryptosystems that skip this phase by using a password directly as a
  293. key.
  294.  
  295. Avoid anything that doesn't let you generate your own keys (e.g., the vendor
  296. sends you keys in the mail, or keys are embedded in the copy of the software
  297. you buy).
  298.  
  299. Implementation Environment
  300.  
  301. Other factors that can influence the relative security of a product are
  302. related to its environment. For example, in software-based encryption
  303. packages, is there any plaintext that's written to disk (perhaps in
  304. temporary files)? What about operating systems that have the ability to swap
  305. processes out of memory on to disk? When something to be encrypted has its
  306. plaintext counterpart deleted, is the extent of its deletion a standard
  307. removal of its name from the directory contents, or has it been written
  308. over? If it's been written over, how well has it been written over? Is that
  309. level of security an issue for you? Are you storing cryptographic keys on a
  310. multi-user machine? The likelihood of having your keys illicitly accessed is
  311. much higher, if so. It's important to consider such things when trying to
  312. decide how secure something you implement is (or isn't) going to be.
  313.  
  314. Snake Oil Warning Signs
  315.  
  316. ``Trust Us, We Know What We're Doing''
  317.  
  318. Perhaps the biggest warning sign of all is the ``trust us, we know what
  319. we're doing'' message that's either stated directly or implied by the
  320. vendor. If the vendor is concerned about the security of their system after
  321. describing exactly how it works, it is certainly worthless. Regardless of
  322. whether or not they tell, smart people will be able to figure it out. The
  323. bad guys after your secrets (especially if you are an especially attractive
  324. target, such as a large company, bank, etc.) are not stupid. They will
  325. figure out the flaws. If the vendor won't tell you exactly and clearly
  326. what's going on inside, you can be sure that they're hiding something, and
  327. that the only one to suffer as a result will be you, the customer.
  328.  
  329. Technobabble
  330.  
  331. If the vendor's description appears to be confusing nonsense, it may very
  332. well be so, even to an expert in the field. One sign of technobabble is a
  333. description which uses newly invented terms or trademarked terms without
  334. actually explaining how the system works. Technobabble is a good way to
  335. confuse a potential user and to mask the vendor's own lack of expertise.
  336.  
  337. And consider this: if the marketing material isn't clear, why expect the
  338. instruction manual to be any better? Even the best product can be useless if
  339. it isn't applied properly. If you can't understand what a vendor is saying,
  340. you're probably better off finding something that makes more sense.
  341.  
  342. Secret Algorithms
  343.  
  344. Avoid software which uses secret algorithms. This is not considered a safe
  345. means of protecting data. If the vendor isn't confident that its encryption
  346. method can withstand scrutiny, then you should be wary of trusting it.
  347.  
  348. A common excuse for not disclosing an algorithm is that ``hackers might try
  349. to crack the program's security.'' While this may be a valid concern, it
  350. should be noted that such ``hackers'' can reverse-engineer the program to
  351. see how it works anyway. This is not a problem if the algorithm is strong
  352. and the program is implemented properly.
  353.  
  354. Using a well-known trusted algorithm, providing technical notes explaining
  355. the implementation, and making the source code available are signs that a
  356. vendor is confident about its product's security. You can take the
  357. implementation apart and test it yourself. Even if the algorithm is good, a
  358. poor implementation will render a cryptography product completely useless.
  359. However, a lock that attackers can't break even when they can see its
  360. internal mechanisms is a strong lock indeed. Good cryptography is exactly
  361. this kind of lock.
  362.  
  363. Note that a vendor who specializes in cryptography may have a proprietary
  364. algorithm which they will reveal only under a non-disclosure agreement. The
  365. crypto product may be perfectly adequate if the vendor is reputable. (But
  366. how does a non-expert know if a vendor is reputable in cryptography?) In
  367. general, you're best off avoiding secret algorithms.
  368.  
  369. Revolutionary Breakthroughs
  370.  
  371. Beware of any vendor who claims to have invented a ``new type of
  372. cryptography'' or a ``revolutionary breakthrough.'' True breakthroughs are
  373. likely to show up in research literature, and professionals in the field
  374. typically won't trust them until after years of analysis, when they're not
  375. so new anymore.
  376.  
  377. The strength of any encryption scheme is only proven by the test of time.
  378. New crypto is like new pharmaceuticals, not new cars. And in some ways it's
  379. worse: if a pharmaceutical company produces bogus drugs, people will start
  380. getting sick, but if you're using bogus crypto, you probably won't have any
  381. indication that your secrets aren't as secret as you think.
  382.  
  383. Avoid software which claims to use `new paradigms' of computing such as
  384. cellular automata, neural nets, genetic algorithms, chaos theory, etc. Just
  385. because software uses a different method of computation doesn't make it more
  386. secure. (In fact, these techniques are the subject of ongoing cryptographic
  387. research, and nobody has published successful results based on their use
  388. yet.)
  389.  
  390. Also be careful of specially modified versions of well-known algorithms.
  391. This may intentionally or unintentionally weaken the cipher.
  392.  
  393. It's important to understand the difference between a new cipher and a new
  394. product. Engaging in the practice of developing ciphers and cryptographic
  395. products is a fine thing to do. However, to do both at the same time is
  396. foolish. Many snake oil vendors brag about how they do this, despite the
  397. lack of wisdom in such activity.
  398.  
  399. Experienced Security Experts, Rave Reviews, and Other Useless Certificates
  400.  
  401. Beware of any product that claims it was analyzed by ``experienced security
  402. experts'' without providing references. Always look for the bibliography.
  403. Any cipher that they're using should appear in a number of scholarly
  404. references. If not, it's obviously not been tested well enough to prove or
  405. disprove its security.
  406.  
  407. Don't rely on reviews in newspapers, magazines, or television shows, since
  408. they generally don't have cryptographers to analyze software for them.
  409. (Celebrity ``hackers'' who know telephone systems are not necessarily crypto
  410. experts.)
  411.  
  412. Just because a vendor is a well known company or the algorithm is patented
  413. doesn't make it secure either.
  414.  
  415. Unbreakability
  416.  
  417. Some vendors will claim their software is ``unbreakable.'' This is marketing
  418. hype, and a common sign of snake oil. No algorithm is unbreakable. Even the
  419. best algorithms are susceptible to brute-force attacks, though this can be
  420. impractical if the key is large enough.
  421.  
  422. Some companies that claim unbreakability actually have serious reasons for
  423. saying so. Unfortunately, these reasons generally depend on some narrow
  424. definition of what it means to ``break'' security. For example, one-time
  425. pads (see the next section) are technically unbreakable as far as secrecy
  426. goes, but only if several difficult and important conditions are true. Even
  427. then, they are trivially vulnerable to known plaintext attacks on the
  428. message's integrity. Other systems may be unbreakable only if one of the
  429. communicating devices (such as a laptop) isn't stolen. So be sure to find
  430. out exactly what the ``unbreakable'' properties of the system are, and see
  431. if the more breakable parts of the system also provide adequate security.
  432.  
  433. Often, less-experienced vendor representatives will roll their eyes and say,
  434. ``Of course it's not unbreakable if you do such-and-such.'' The point is
  435. that the exact nature of ``such and such'' will vary from one product to
  436. another. Pick the one that best matches your operational needs without
  437. sacrificing your security requirements.
  438.  
  439. One-Time-Pads
  440.  
  441. A vendor might claim the system uses a one-time-pad (OTP), which is provably
  442. unbreakable. Technically, the encrypted output of an OTP system is equally
  443. likely to decrypt to any same-size plaintext. For example,
  444.  
  445.   598v *$_+~ xCtMB0
  446.  
  447. has an equal chance of decrypting to any of these:
  448.  
  449.   the answer is yes
  450.   the answer is no!
  451.   you are a weenie!
  452.  
  453. Snake oil vendors will try to capitalize on the known strength of an OTP.
  454. But it is important to understand that any variation in the implementation
  455. means that it is not an OTP and has nowhere near the security of an OTP.
  456.  
  457. An OTP system works by having a ``pad'' of random bits in the possession of
  458. both the sender and recipient, but absolutely no one else. Originally, paper
  459. pads were used before general-purpose computers came into being. The pad
  460. must be sent from one party to the other securely, such as in a locked
  461. briefcase handcuffed to the carrier.
  462.  
  463. To encrypt an n-bit message, the next n bits in the pad are used as a key.
  464. After the bits are used from the pad, they're destroyed, and can never be
  465. used again.
  466.  
  467. The bits in the pad cannot be generated by an algorithm or cipher. They must
  468. be truly random, using a real random source such as specialized hardware,
  469. radioactive decay timings, etc. Some snake oil vendors will try to dance
  470. around this issue, and talk about functions they perform on the bit stream,
  471. things they do with the bit stream vs. the plaintext, or something similar.
  472. But this still doesn't change the fact that anything that doesn't use real
  473. random bits is not an OTP. The important part of an OTP is the source of the
  474. bits, not what one does with them.
  475.  
  476. OTPs are seriously vulnerable if you ever reuse a pad. For instance, the
  477. NSA's VENONA project [4], without the benefit of computer assistance,
  478. managed to decrypt a series of KGB messages encrypted with faulty pads. It
  479. doesn't take much work to crack a reused pad.
  480.  
  481. The real limitation to practical use of OTPs is the generation and
  482. distribution of truly random keys. You have to distribute at least one bit
  483. of key for every bit of data transmitted. So OTPs are awkward for general
  484. purpose cryptography. They're only practical for extremely-low-bandwidth
  485. communication channels where two parties can exchange pads with a method
  486. different than they exchange messages. (It is rumored that a link from
  487. Washington, D.C., to Moscow was encrypted with an OTP.)
  488.  
  489. Further, if pads are provided by a vendor, you cannot verify the quality of
  490. the pads. How do you know the vendor isn't sending the same bits to
  491. everyone? Keeping a copy for themselves? Or selling a copy to your rivals?
  492.  
  493. Also, some vendors may try to confuse random session keys or initialization
  494. vectors with OTPs.
  495.  
  496. Algorithm or product X is insecure
  497.  
  498. Be wary of anything that claims that competing algorithms or products are
  499. insecure without providing evidence for these claims. Sometimes attacks are
  500. theoretical or impractical, requiring special circumstances or massive
  501. computing power over many years, and it's easy to confuse a layman by
  502. mentioning these.
  503.  
  504. Recoverable Keys
  505.  
  506. If there is a key-backup or key-escrow system, are you in control of the
  507. backup or does someone else hold a copy of the key? Can a third party
  508. recover your key without much trouble? Remember, you have no security
  509. against someone who has your key.
  510.  
  511. If the vendor claims it can recover lost keys without using some type of
  512. key-escrow service, avoid it. The security is obviously flawed.
  513.  
  514. Exportable from the USA
  515.  
  516. If the software is made in the USA, can it be exported? Strong cryptography
  517. is considered dangerous munitions by the United States and requires approval
  518. from the US State Department before it can leave the country. (The U.S.
  519. isn't alone in this; some other nations have similar export restrictions on
  520. strong cryptography.) Chances are, if the software has been approved for
  521. export, the algorithm is weak or crackable.
  522.  
  523. If the vendor is unaware of export restrictions, avoid their software. For
  524. example, if they claim that the IDEA cipher can be exported when most
  525. vendors (and the State Department!) do not make such a claim, then the
  526. vendor is probably lacking sufficient clue to provide you with good
  527. cryptography.
  528.  
  529. Because of export restrictions, some decent crypto products come in two
  530. flavors: US-only and exportable. The exportable version will be crippled,
  531. probably by using smaller keys, making it easy to crack.
  532.  
  533. There are no restrictions on importing crypto products into the US, so a
  534. non-US vendor can legally offer a single, secure version of a product for
  535. the entire world.
  536.  
  537. Note that a cryptosystem may not be exportable from the US even if it is
  538. available outside the US: sometimes a utility is illegally exported and
  539. posted on an overseas site.
  540.  
  541. ``Military Grade''
  542.  
  543. Many crypto vendors claim their system is ``military grade.'' This is a
  544. meaningless term, since there isn't a standard that defines ``military
  545. grade,'' other than actually being used by various armed forces. Since these
  546. organizations don't reveal what crypto they use, it isn't possible to prove
  547. or disprove that something is ``military grade.''
  548.  
  549. Unfortunately, some good crypto products also use this term. Watch for this
  550. in combination with other snake oil indicators, e.g., ``our military-grade
  551. encryption system is exportable from the US!''
  552.  
  553. Other Considerations
  554.  
  555. Avoid vendors who don't seem to understand anything described in the ``Basic
  556. Concepts'' section above.
  557.  
  558. Avoid anything that allows someone with your copy of the software to access
  559. files, data, etc. without needing some sort of key or passphrase.
  560.  
  561. Beware of products that are designed for a specific task, such as data
  562. archiving, and have encryption as an additional feature. Typically, it's
  563. better to use an encryption utility for encryption, rather than some tool
  564. designed for another purpose that adds encryption as an afterthought.
  565.  
  566. No product is secure if used improperly. You can be the weakest link in the
  567. chain if you use a product carelessly. Do not trust any product to be
  568. foolproof, and be wary of any product that claims it is.
  569.  
  570. Interface isn't everything: user-friendliness is important, but be wary of
  571. anything that puts too much emphasis on ease of use without due
  572. consideration to cryptographic strength.
  573.  
  574. Glossary
  575.  
  576. algorithm
  577.      A procedure or mathematical formula. Cryptographic algorithms convert
  578.      plaintext to and from ciphertext.
  579. cipher
  580.      Synonym for ``cryptographic algorithm''
  581. cryptanalysis
  582.      To solve or ``break'' a cryptosystem.
  583. EAR
  584.      Export Administration Regulations. The rules under which the export of
  585.      cryptographic software from the US are governed now.
  586. escrow
  587.      A third party able to decrypt messages sent from one person to another.
  588.      Although this term is often used in connection with the US Government's
  589.      ``Clipper'' proposals, it isn't limited to government-mandated ability
  590.      to access encrypted information at will. Some corporations might wish
  591.      to have their employees use cryptosystems with escrow features when
  592.      conducting the company's business, so the information can be retrieved
  593.      should the employee be unable to unlock it himself later, (if he were
  594.      to forget his passphrase, suddenly quit, get run over by a bus, etc.)
  595.      Or, someone might wish his spouse or lawyer to be able to recover
  596.      encrypted data, etc., in which case he could use a cryptosystem with an
  597.      escrow feature.
  598. initialization vector
  599.      One of the problems with encrypting such things as files in specific
  600.      formats (i.e., that of a word processor, email, etc.) is that there is
  601.      a high degree of predictability about the first bytes of the message.
  602.      This could be used to break the encrypted message easier than by brute
  603.      force. In ciphers where one block of data is used to influence the
  604.      ciphertext of the next (such as CBC), a random block of data is
  605.      encrypted and used as the first block of the encrypted message,
  606.      resulting in a less predictable ciphertext message. This random block
  607.      is known as the initialization vector. The decryption process also
  608.      performs the function of removing the first block, resulting in the
  609.      original plaintext.
  610. ITAR
  611.      International Traffic in Arms Regulations. These are the rules by which
  612.      munitions, as defined by the US State Department, may (or may not) be
  613.      exported from the US. Until recently, this also included the export of
  614.      cryptography. The exportability of cryptography is now in the hands of
  615.      the Bureau of Export Administration, under the US Department of
  616.      Commerce.
  617. key
  618.      A piece of data that, when fed to an algorithm along with ciphertext,
  619.      will yield plaintext. (Or, when fed to an algorithm along with
  620.      plaintext, will yield ciphertext.
  621. random session key
  622.      This is a temporary key that is generated specifically for one message.
  623.      Typically, in public key cryptosystems, the message to be sent is
  624.      encrypted with a symmetric key that was specifically generated for that
  625.      message. The encrypted version of that message, as well as the
  626.      associated session key can then be encrypted with the recipient's
  627.      public key. When the recipient decrypts the message, then, the system
  628.      will actually decrypt the message it gets (which is the ciphertext
  629.      message and the symmetric key to decrypt it), and then use the
  630.      symmetric key to decrypt the ciphertext. The result is the plaintext
  631.      message. This is often done because of the tremendous difference in the
  632.      speed of symmetric vs. asymmetric ciphers.
  633.  
  634. Index
  635.  
  636. References
  637.  
  638. 1     B. Schneier. Applied Cryptography, 2e. John Wiley & Sons. 1996.
  639. 2     M. Blaze, W. Diffie, R. L. Rivest, B. Schneier, T. Shimomura, E.
  640.      Thompson, M. Wiener. ``Minimal Key Lengths for Symmetric Ciphers to
  641.      Provide Adequate Commercial Security''. Available at
  642.      ftp://ftp.research.att.com/dist/mab/keylength.ps and
  643.      http://theory.lcs.mit.edu/~rivest/bsa-final-report.ascii
  644. 3     The Crypt Cabal. Cryptography FAQ. Available at
  645.      http://www.cis.ohio-state.edu/hypertext/faq/usenet/cryptography-faq/top.html.
  646. 4     The National Security Agency. The VENONA Project. Available at
  647.      http://www.nsa.gov/docs/venona/venona.html.
  648. --
  649. Matt Curtin  Chief Scientist Megasoft Online  cmcurtin@research.megasoft.com
  650. http://www.research.megasoft.com/people/cmcurtin/    I speak only for myself
  651. Keywords:  Crypto Security Privacy   Unix Internet Perl Java   Death-to-spam
  652.  
  653.