home *** CD-ROM | disk | FTP | other *** search
/ Power Hacker 2003 / Power_Hacker_2003.iso / E-zine / Magazines / crypto-gram / crypto-gram-0002.txt next >
Encoding:
Text File  |  2002-05-27  |  47.9 KB  |  994 lines

  1.                   CRYPTO-GRAM
  2.  
  3.                February 15, 2000
  4.  
  5.                by Bruce Schneier
  6.                 Founder and CTO
  7.        Counterpane Internet Security, Inc.
  8.             schneier@counterpane.com
  9.            http://www.counterpane.com
  10.  
  11.  
  12. A free monthly newsletter providing summaries, analyses, insights, and 
  13. commentaries on computer security and cryptography.
  14.  
  15. Back issues are available at http://www.counterpane.com.  To subscribe or 
  16. unsubscribe, see below.
  17.  
  18.  
  19. Copyright (c) 2000 by Counterpane Internet Security, Inc.
  20.  
  21.  
  22. ** *** ***** ******* *********** *************
  23.  
  24. In this issue:
  25.       Distributed Denial-of-Service Attacks
  26.       New Chinese Cryptography Regulations
  27.       Counterpane Internet Security News
  28.       Publicizing Vulnerabilities
  29.       Counterpane -- Featured Research
  30.       News
  31.       Mitnick Case Yields New Crypto Twist
  32.       The Doghouse:  X.com
  33.       Cookies
  34.       Comments from Readers
  35.  
  36.  
  37. ** *** ***** ******* *********** *************
  38.  
  39.      Distributed Denial-of-Service Attacks
  40.  
  41.  
  42.  
  43. Suddenly, distributed denial-of-service (DDS) attacks are big news.  The 
  44. first automatic tools for these attacks were released last year, and CERT 
  45. sent out an advisory in November.  But the spate of high-profile attacks in 
  46. mid-February has put them on the front pages of newspapers everywhere.
  47.  
  48. Not much is new.  Denial-of-service attacks have been going on for 
  49. years.  The recent attacks are the same, only this time there is no single 
  50. source of the attack.  We've seen these for years, too.  The attacker first 
  51. breaks into hundreds or thousands of random insecure computers (called 
  52. "zombies") on the Internet and installs an attack program.  Then he 
  53. coordinates them all to attack the target at the same time.  The target is 
  54. attacked from many places at once; his traditional defenses just don't 
  55. work, and he falls over dead.
  56.  
  57. It's very much like the pizza delivery attack: Alice doesn't like Bob, so 
  58. she calls a hundred pizza delivery parlors and, from each one, has a pizza 
  59. delivered to Bob's house at 11:00 PM.  At 11, Bob's front porch is filled 
  60. with 100 pizza deliverers, all demanding their money.  It looks to Bob like 
  61. the pizza Mafia is out to get him, but the pizza parlors are victims 
  62. too.  The real attacker is nowhere to be seen.
  63.  
  64. This sounds like a complicated attack on the Internet, and it is.  But 
  65. unfortunately, it only takes one talented programmer with a poor sense of 
  66. ethics to automate and distribute the attacks.  Once a DDS tool is publicly 
  67. available, an attacker doesn't need skill; he can use a simple 
  68. point-and-click interface to infect the intermediate sites, as well as to 
  69. coordinate and launch the attack.  This is what's new: easy-to-use DDS 
  70. tools like Trin00 and Tribal Flood Network.
  71.  
  72. These attacks are incredibly difficult, if not impossible, to defend 
  73. against.  In a traditional denial-of-service attack, the victim computer 
  74. might be able to figure out where the attack is coming from and shut down 
  75. those connections.  But in a distributed attack, there is no single 
  76. source.  The computer should shut down all connections except for the ones 
  77. it knows to be trusted, but that doesn't work for a public Internet site.
  78.  
  79. Other defenses also have problems.  I've seen proposals that force the 
  80. client to perform an expensive calculation to make a connection.  (RSA 
  81. pre-announced such a "solution.")  This works against standard 
  82. denial-of-service attacks, but not against a distributed one.  Large-scale 
  83. filtering at the ISPs can help, but that requires a lot of effort and will 
  84. reduce network bandwidth noticeably.
  85.  
  86. At least one report has suggested that a lack of authentication on the 
  87. Internet is to blame.  This makes no sense.  The packets did harm just by 
  88. the attempt to deliver them; whether or not they were authenticatable is 
  89. completely irrelevant.  Mandatory authentication would do nothing to 
  90. prevent these attacks, or to track down the attackers.
  91.  
  92. There have been two academic conferences on DDS attacks in recent weeks, 
  93. and the general consensus is that there is no way to defend against these 
  94. attacks.  Sometimes the particular bugs exploited in the DDS attacks can be 
  95. patched, but there are many that cannot.  The Internet was not designed to 
  96. withstand DDS attacks.
  97.  
  98. Tracing the attacker is also incredibly difficult.  Going back to the pizza 
  99. delivery example, the only thing the victim could do is to ask the pizza 
  100. parlors to help him catch the attacker.  If all the parlors coordinated 
  101. their phone logs, maybe they could figure out who ordered all the pizzas in 
  102. the first place.  Something similar is possible on the Internet, but it is 
  103. unlikely that the intermediate sites kept good logs.  Additionally, it is 
  104. easy to disguise your location on the Internet.  And if the attacker is in 
  105. some Eastern European country with minimal computer crime laws, a bribable 
  106. police, and no extradition treaties, there's nothing you can do anyway.
  107.  
  108. So far, these attacks are strictly denial-of-service.  They do not affect 
  109. the data on the Web sites.  These attacks cannot steal credit card numbers 
  110. or proprietary information.  They cannot transfer money out of your bank 
  111. account to trade stocks in your name.  Attackers cannot gain financially 
  112. from these attacks.  Still, they are very serious.  And it is certainly 
  113. possible that an attacker can use denial of service as a tool for a more 
  114. complicated attack that IS designed to steal something.
  115.  
  116. This is not to say that denial-of-service attacks are not real, or not 
  117. important.  For most big corporations, the biggest risk of a security 
  118. breach is loss of income or loss of reputation, either of which is achieved 
  119. by a conspicuous denial-of-service attack.  And for companies with more 
  120. mission- or life-critical data online, a DOS attack can literally put a 
  121. person's life at risk.
  122.  
  123. The real problem is that there are hundreds of thousands, possibly 
  124. millions, of innocent naive computer users who are vulnerable to 
  125. attack.  They're using DSL or cable modems, they're always on the Internet 
  126. with static IP addresses, and they can be taken over and used as launching 
  127. pads for these (and other) attacks.  The media is focusing on the mega 
  128. e-corporations that are under attack, but the real story is the individual 
  129. systems.
  130.  
  131. Similarly, the real solutions are of the "civic hygiene" variety.  Just as 
  132. malaria was defeated in Washington, DC, by draining all the swamps, the 
  133. only real way to prevent these attacks is to protect those millions of 
  134. individual computers on the Internet.  Unfortunately, we are building 
  135. swampland at an incredible rate, and securing everything is 
  136. impracticable.  Even if personal firewalls had a 95% market penetration, 
  137. and even if they were all installed and operated perfectly, there would 
  138. still be enough insecure computers on the Internet to use for these attacks.
  139.  
  140. I believe that any long-term solution will involve redesigning the entire 
  141. Internet.  Back in the 1960s, some people figured out that you could 
  142. whistle, click, belch, or whatever into a telephone and make the system do 
  143. things.  This was the era of phone phreaking: black boxes, blue boxes, 
  144. Captain Crunch whistles.  The phone company did their best to defend 
  145. against these attacks, but the basic problem was that the phone system was 
  146. built with "in-band signaling": the control signal and the data signal 
  147. traveled along the same wires.  In the 1980s, the phone company completely 
  148. redesigned the phone system.  For example SS7, or Signaling System 7, was 
  149. out-of-band.  The voice path and data path were separated.  Now it doesn't 
  150. matter how hard you whistle into the phone system: the switch isn't 
  151. listening.  The attacks simply don't work.  (Red boxes still work, against 
  152. payphones, by mimicking the in-band tones that count the coins deposited in 
  153. the phones.)
  154.  
  155. In the long term, out-of-band signaling is the only way to deal with many 
  156. of the vulnerabilities of the Internet, DDS attacks among 
  157. them.  Unfortunately, there are no plans to redesign the Internet in this 
  158. way, and any such undertaking might be just too complicated to even consider.
  159.  
  160. Discussion of DDS attacks:
  161. <http://staff.washington.edu/dittrich/talks/cert/>
  162.  
  163. CERT Advisory:
  164. <http://www.cert.org/incident_notes/IN-99-07.html>
  165.  
  166. Tool to check if Tribal Flood Network or Trin00 is installed on your computer:
  167. <http://www.nfr.net/updates/>
  168.  
  169. Tutorial on DOS attacks:
  170. <http://www.hackernews.com/bufferoverflow/00/dosattack/dosattack.html>
  171.  
  172. Trin00 Analysis:
  173. <http://staff.washington.edu/dittrich/misc/trinoo.analysis>
  174.  
  175. Tribal Flood Network Analysis:
  176. <http://staff.washington.edu/dittrich/misc/tfn.analysis>
  177.  
  178. Stacheldraht Analysis:
  179. <http://staff.washington.edu/dittrich/misc/stacheldraht.analysis>
  180.  
  181. Declan McCullagh's essay on the topic:
  182. <http://www.wired.com/news/politics/0,1283,34294,00.html>
  183.  
  184.  
  185. ** *** ***** ******* *********** *************
  186.  
  187.       New Chinese Cryptography Regulations
  188.  
  189.  
  190.  
  191. Claiming that they are trying to prevent state secrets from being stolen, 
  192. China has issued some strict Internet cryptography controls.  First, 
  193. everyone who uses encryption has to register with the government and give 
  194. the details of what software they are using and the algorithm, users' 
  195. names, e-mail addresses, as well as the location of their 
  196. computers.  Second, Chinese companies are prohibited from buying products 
  197. containing encryption software that was designed overseas.  (So if a U.S. 
  198. software company wants to sell encryption in its product, it needs to rip 
  199. out whatever it has now and install something Chinese-made.)
  200.  
  201. This is a weird one, and I have a few observations.  One, China is probably 
  202. afraid that foreign security products have back doors.  This is possible, 
  203. and something that the U.S. has done before.  But I don't see how enforcing 
  204. requirements on crypto algorithms help here.  Back doors are usually much 
  205. more subtle than a broken crypto algorithm,
  206.  
  207. Two, this could easily be a prelude to key escrow.  Certainly the first 
  208. step toward requiring people to give a copy of their encryption keys to the 
  209. government is to find out who is using encryption, and what kind.
  210.  
  211. Three, even by itself this information is useful for Chinese 
  212. espionage.  Traffic analysis is a very difficult problem, and knowing who 
  213. is using encryption software (and where they are physically located) makes 
  214. it a lot easier to know who to target.
  215.  
  216. People with a lot more political expertise than I have said that this is 
  217. really nothing.  China demanded that all fax machines be registered a 
  218. decade ago, and many didn't bother to comply.
  219.  
  220. <http://www.wired.com/news/print/0,1294,33910,00.html>
  221. <http://www.usatoday.com/life/cyber/tech/cth217.htm>
  222. <http://www.currents.net/newstoday/00/01/27/news6.html>
  223.  
  224.  
  225. ** *** ***** ******* *********** *************
  226.  
  227.       Counterpane Internet Security News
  228.  
  229.  
  230.  
  231. Lots of excitement; still lots of secrecy.  We're up to 45 employees and 
  232. still growing.  If anyone knows of a good VP of Marketing who likes 
  233. commuting to San Jose, send him my way.
  234.  
  235. The Counterpane Web site has a new look.  Visit it:
  236. <http://www.counterpane.com>
  237.  
  238. Bruce Schneier is speaking at PC Forum, on March 15th:
  239. <http://www.edventure.com/PC2000/>
  240.  
  241.  
  242. ** *** ***** ******* *********** *************
  243.  
  244.           Publicizing Vulnerabilities
  245.  
  246.  
  247.  
  248. Last month I discussed publicity attacks, and the tendency of vendors to 
  249. hype security vulnerabilities as publicity for their products and 
  250. services.  My essay generated a lot of commentary (see the end of the 
  251. article for some URLs).  This is a complicated issue, with gray areas, 
  252. slippery slopes, and a lot of room for debate.  My position has changed 
  253. over time.  I'd like to revisit it.
  254.  
  255. There are really two issues here, intertwined.  If someone discovers a 
  256. vulnerability in a product, should he quietly alert the vendor or should he 
  257. make it public?  And when is a vulnerability important and when is it trivial?
  258.  
  259. The first issue involves some history.
  260.  
  261. In 1988, the Morris Worm illustrated how susceptible the Internet is to 
  262. attack.  The Defense Advanced Research Projects Agency (DARPA) funded a 
  263. group to coordinate responses to these kinds of attacks, increase security 
  264. awareness, and generally do good things for Internet security.  The group 
  265. is known as CERT -- more formally, the Computer Emergency Response Team -- 
  266. and its response center is at Carnegie Mellon University in Pittsburgh.
  267.  
  268. Over the years CERT has acted as kind of a clearinghouse for security 
  269. vulnerabilities.  People are supposed to send vulnerabilities they discover 
  270. to CERT.  CERT then verifies that the vulnerability is real, quietly alerts 
  271. the vendor, and publishes the details (and the fix) once the vendor has 
  272. fixed the vulnerability.
  273.  
  274. This sounds good in theory, but worked less well in practice.  There were 
  275. three main complaints.  First, CERT got a lot of vulnerabilities reported 
  276. to it, and there were complaints about CERT being slow in verifying 
  277. them.  Second, the vendors were slow about fixing the vulnerabilities once 
  278. CERT told them.  Since CERT wouldn't publish until there was a fix, so 
  279. there was no real urgency to fix anything.  And third, CERT was slow about 
  280. publishing reports even after the fixes were implemented.
  281.  
  282. The "full disclosure" movement was born out of frustration with this 
  283. process.  Internet mailing lists like Bugtraq (begun in 1993) and NT 
  284. Bugtraq (begun in 1997) became forums for people who believe that the only 
  285. way to improve security is to understand and publicize the problems.  This 
  286. was a backlash against the ivory tower attitude of CERT.  As one hacker 
  287. wrote: "No more would the details of security problems be limited to closed 
  288. mailing lists of so-called security experts or detailed in long, 
  289. overwrought papers from academia.  Instead, the information would be made 
  290. available to the masses to do with as they saw fit."
  291.  
  292. Today, many researchers publish vulnerabilities they discover on these 
  293. mailing lists, sometimes accompanied by press releases and the usual flurry 
  294. of factoids.  The press trolls these mailing lists, and writes about the 
  295. vulnerabilities in the computer magazines: both paper-based and 
  296. online.  (This is why there have been so many more press stories about 
  297. computer vulnerabilities over the past few years.)  The vendors scramble to 
  298. patch these vulnerabilities as soon as they are publicized, so they can 
  299. write their own press releases about how quickly and thoroughly they fixed 
  300. things.  The full disclosure movement is improving Internet security.
  301.  
  302. At the same time, hackers use these mailing lists to learn about 
  303. vulnerabilities and write attack programs (called "exploits").  Sometimes 
  304. the researchers themselves write demonstration exploits.  Sometimes others 
  305. do.  Some of these attacks are complicated; but as soon as someone writes a 
  306. point-and-click exploit, anyone can exploit the vulnerability.
  307.  
  308. Those against the full-disclosure movement argue that publishing 
  309. vulnerability details does more harm than good by arming the criminal 
  310. hackers with tools they can use to break into systems.  Security is much 
  311. better served, they counter, by not publishing vulnerabilities in all their 
  312. gory details.
  313.  
  314. Full-disclosure proponents counter that this assumes that the researcher 
  315. who publicizes the vulnerability is always the first one to discover it, 
  316. which simply isn't true.  Sometimes, vulnerabilities have been known by 
  317. attackers (sometimes passed about quietly in the hacker underground) for 
  318. months or years before the vendor ever found out.  The sooner a 
  319. vulnerability is publicized and fixed, the better it is for everyone.
  320.  
  321. That's the debate in a nutshell:  Is the benefit of publicizing an attack 
  322. worth the increased threat of the enemy learning about it?  (In the 
  323. language of the intelligence community, this is known as the "equities 
  324. issue.")  If vulnerabilities are not published, then the vendors are slow 
  325. (or don't bother) to fix them.  But if the vulnerabilities are published, 
  326. then hackers write exploits to take advantage of them.
  327.  
  328. In general, I am in favor of the full-disclosure movement, and think it has 
  329. done a lot more to increase security than it has to decrease 
  330. it.  Publicizing a vulnerability doesn't cause it to come into existence; 
  331. it existed even before it was publicized.  Given that most vendors don't 
  332. bother fixing vulnerabilities that are not published, publicizing is the 
  333. first step towards closing that vulnerability.  Punishing the publicizer 
  334. feels a lot like shooting the messenger; the real blame belongs to the 
  335. vendor that released software with the vulnerability in the first place.
  336.  
  337. The second issue -- the one that generated most of the discussion last 
  338. month -- involves the agenda of the researcher.  Publishing a security 
  339. vulnerability is a play for publicity; the researcher is looking to get his 
  340. own name in the newspaper by successfully bagging his prey.  The publicizer 
  341. often has his own agenda: he's a security consultant, or an employee of a 
  342. company that offers security products or services.  This is especially true 
  343. if the vulnerability is publicized in a press release.  Services like PR 
  344. Newswire and Business Wire are expensive, and no one would do it unless 
  345. they thought they were getting something in return.
  346.  
  347. All researchers are guilty of courting publicity.  I am guilty of this.  It 
  348. was fun when my Microsoft PPTP break hit the press.  Calling the protocol 
  349. "kindergarten cryptography" was a hoot.  On the other hand, I objected to 
  350. nCipher's publication of their key finding attack last month.  The 
  351. differences are subtle and there's a lot of gray area, but here are my rules.
  352.  
  353. First, I am opposed to attacks that primarily sow fear.  Publishing 
  354. vulnerabilities that there's no real evidence for is bad.  Publishing 
  355. vulnerabilities that are more smoke than fire is bad.  Publishing 
  356. vulnerabilities in critical systems that cannot be easily fixed and whose 
  357. exploitation will cause serious harm (e.g., the air traffic control system) 
  358. is bad.
  359.  
  360. Second, I believe in giving the vendor advance notice.  CERT took this to 
  361. an extreme, sometimes giving the vendor years to fix the problem.  I'd like 
  362. to see the researcher tell the vendor that he will publish the 
  363. vulnerability in a month, or three weeks (no fair giving the vendor just 
  364. seven days to fix the problem).  Hopefully the vulnerability announcement 
  365. can occur at the same time as the patch announcement.  This benefits 
  366. everybody.  (Admittedly, I did not do this with Microsoft PPTP.)
  367.  
  368. Third, I believe that it is irresponsible, and possibly criminal, to 
  369. distribute exploits.  Reverse-engineering security systems, discovering 
  370. vulnerabilities, and writing research papers about them benefits research; 
  371. it makes us smarter at designing secure systems.  Distributing exploits 
  372. just make us more vulnerable.  For example, Mixter is a German hacker who 
  373. wrote the Tribal Flood Network tool used in some of the distributed 
  374. denial-of-service attacks.  I believe he has a lot to answer for.  His 
  375. attack tool served no good.  It enabled criminals and cost a lot of 
  376. companies a lot of money.  Its existence makes networks less secure.
  377.  
  378. This is not clear-cut: there are tools that do both good and 
  379. bad.  Vulnerability assessment tools can be used both to increase security, 
  380. and to break into systems.  Remote administration tools look a lot like 
  381. Back Orifice.  Publishing tools can also help; Microsoft has lied to the 
  382. press and denied that a published vulnerability is real, until an actual 
  383. exploit appeared.
  384.  
  385. I like Marcus Ranum's "be part of the solution, not part of the problem" 
  386. metric.  Full disclosure is part of the solution.  Convincing vendors to 
  387. fix problems is part of the solution.  Sowing fear is part of the 
  388. problem.  Handing computer weaponry to clueless teenagers is part of the 
  389. problem.
  390.  
  391. These are my opinions; they have changed over time, and are probably still 
  392. changing.  I came to this field via cryptography.  Cryptography is by 
  393. nature adversarial, even in the ivory towers of academia.  Someone proposes 
  394. a new scheme: an algorithm, a protocol, a technique.  Someone else breaks 
  395. it.  A third person repairs it.  And so on.  It's all part of the fun, and 
  396. this is how I learned.  I first came to network security with this 
  397. philosophy.  But when it comes to fielded systems, things can get a lot 
  398. trickier.  Publishing vulnerabilities can cause significant damage to 
  399. networks, and considerable pain and suffering for network 
  400. administrators.  If an announcement, product, or exploit makes things 
  401. worse, it's bad.  If it makes things better, it's good.
  402.  
  403. My original essay:
  404. <http://www.counterpane.com/crypto-gram-0001.html#KeyFindingAttacksandPublic 
  405. ityAttacks>
  406.  
  407. One response:
  408. <http://www.securityfocus.com/templates/forum_message.html?forum=2&head=754% 
  409. 20&id=754>
  410.  
  411. A response to that response:
  412. <http://www.securityfocus.com/templates/forum_message.html?forum=2&head=754% 
  413. 20&id=789>
  414.  
  415. The discussion on SlashDot:
  416. <http://slashdot.org/articles/00/01/17/0839211.shtml>
  417.  
  418. Marcus Ranum's essay on the topic:
  419. <http://www.clark.net/pub/mjr/pubs/dark/>
  420.  
  421. See also the reader comments at the end of this issue.
  422.  
  423.  
  424. ** *** ***** ******* *********** *************
  425.  
  426.        Counterpane -- Featured Research
  427.  
  428.  
  429.  
  430. "A Twofish Retreat: Related-Key Attacks Against Reduced-Round Twofish"
  431.  
  432. Niels Ferguson, John Kelsey, Bruce Schneier, Doug Whiting
  433.  
  434. The Twofish AES submission document contains a partial chosen-key and a 
  435. related-key attack against ten rounds of Twofish without whitening, using 
  436. 256-bit keys.  This attack does not work; it makes use of a postulated 
  437. class of weak key pairs which has the S-box keys and eight successive round 
  438. keys equal, but no such pairs exist.  In this report we analyze the 
  439. occurrence of this kind of weak key pair and describe how such pairs may be 
  440. used both to mount attacks on reduced-round Twofish and to find properties 
  441. of reduced-round Twofish that are not present in an ideal cipher.  We find 
  442. that related-key and chosen-key attacks are considerably less powerful 
  443. against Twofish than was previously believed.
  444.  
  445. <http://www.counterpane.com/twofish-related.html>
  446.  
  447.  
  448. ** *** ***** ******* *********** *************
  449.  
  450.                      News
  451.  
  452.  
  453.  
  454. One of the nicer things about living in Minneapolis:
  455. <http://www.ag.state.mn.us/home/files/news/pr_conspriv_011300.html>
  456.  
  457. GCHQ (the British NSA equivalent) is looking for recruits.  Take the test 
  458. on their Web site.
  459. <http://www.gchq.gov.uk/>
  460.  
  461. Various pundits have said that the government is still winning the crypto 
  462. battle as long as Windows is shipping without strong crypto.  Guess what?
  463. Microsoft has said that it would release Windows 2000 worldwide with strong
  464. cryptography.
  465. <http://www.wired.com/news/technology/0,1282,33745,00.html>
  466.  
  467. A brute-force machine for a combination lock:
  468. <http://vv.carleton.ca/~neil/robotics/locraker.html>
  469.  
  470. Would you hire hackers?  Some backlash to the @stake announcement:
  471. <http://www.zdnet.com/enterprise/stories/security/news/0,7922,2420340,00.html>
  472.  
  473. Why security policies fail:
  474. <http://www.cdc.com/solutions/whitepapers/Why_Security_Policies_Fail.pdf>
  475.  
  476. Another distributed attack against a 56-bit cipher, one called the 
  477. CS-Cipher.  This one took 62 days on about 38,000 machines, and happened to 
  478. require searching 98% of the keyspace.
  479. <http://www.wired.com/news/print/0,1294,33695,00.html>
  480.  
  481. Nice article on how easy it is to hack into Web sites:
  482. <http://www.pcworld.com/current_issue/article/0,1212,14415,00.html>
  483.  
  484. The NSA has contracted with Secure Computing Corp. for a secure version of 
  485. Linux.  Personally, I don't know if the Linux license allows the NSA to 
  486. make a secure version of the operating system if they are not going to 
  487. freely distribute the results.
  488. <http://www.fcw.com/fcw/articles/web-nsalinux-01-17-00.asp>
  489.  
  490. The U.S. government and cyber crime:
  491. <http://www.currents.net/newstoday/00/01/17/news4.html>
  492. <http://www.fcw.com/fcw/articles/web-fbi-01-14-00.asp>
  493. <http://www.computerworld.com/home/print.nsf/all/000111DBFE>
  494. <http://washingtonpost.com/wp-srv/business/feed/a39572-2000jan13.htm>
  495.  
  496. The new export rules and the Bernstein case:
  497. <http://www.wired.com/news/print/0,1294,33651,00.html>
  498.  
  499. In a nice piece of irony, the new U.S. crypto regulations will benefit 
  500. federal agencies:
  501. <http://www.fcw.com/fcw/articles/web-export-01-14-00.asp>
  502. Other commentary on the new encryption regulations:
  503. <http://www.computerworld.com/home/print.nsf/all/000113DD42>
  504. <http://www.usatoday.com/life/cyber/tech/cth136.htm>
  505.  
  506. New service monitors what radio station you're listening to:
  507. <http://www.wired.com/news/technology/0,1282,33799,00.html?tw=wn20000125>
  508.  
  509. Windows 2000 has its first virus:
  510. <http://www.computerworld.com/home/print.nsf/all/000113DD52>
  511. and its first security holes:
  512. <http://dailynews.yahoo.com/h/zd/20000130/tc/20000130748.html>
  513. Remember, it hasn't even been released yet.
  514.  
  515. I'm not the only one who thinks Internet voting is a dumb idea.  The 
  516. "California Internet Voting Task Force" agrees.
  517. <http://www.ss.ca.gov/executive/ivote/>
  518.  
  519. This is the most clever piece of credit-card fraud I've seen in a long time:
  520. <http://www.zdnet.com/zdnn/stories/news/0,4586,2427490,00.html?chkpt=zdhpnew 
  521. s01>
  522.  
  523. More information on the French smart card hack:
  524. <http://www.msnbc.com/news/361936.asp>
  525. <http://www.theregister.co.uk/000123-000005.html>
  526. <http://www.parodie.com/english/smartcard.htm>
  527.  
  528. Someone is suing Yahoo for violating Texas's anti-stalking law by using 
  529. cookies to track computer users' every move without their consent:
  530. <http://news.cnet.com/category/0-1005-200-1533164.html>
  531.  
  532. Twofish on the AS/400:
  533. <http://www.news400.com/features/newmf/Article.cfm?ArticleID=13333>
  534.  
  535. Snake-oil alert.  Remember, it is possible -- although unlikely -- that 
  536. this is as good as NEC's PR department makes it sound.  But it will take 
  537. years to know.
  538. <http://www.theregister.co.uk/000127-000025.html>
  539. <http://www.cnn.com/2000/TECH/computing/01/24/nec.strong.encrypt/index.html>
  540.  
  541. Good summaries of the DVD break and deCSS.  An important point is that DVDs 
  542. can be copied and pirated without using deCSS or any other decryption, 
  543. which certainly makes the original claim of "prevents piracy" look either 
  544. astoundingly ignorant or brazenly deceptive.
  545. <http://www.fool.com/portfolios/rulemaker/2000/rulemaker000127.htm>
  546. <http://www.latimes.com/news/comment/20000207/t000012301.html>
  547. <http://linuxtoday.com/stories/16556.html>
  548.  
  549. Recently declassified NSA documents.  9 and 12 mention ECHELON:
  550. <http://www.gwu.edu/~nsarchiv/NSAEBB/NSAEBB23/index2.html>
  551. General information:
  552. <http://www.gwu.edu/~nsarchiv/NSAEBB/NSAEBB23/index.html>
  553.  
  554. Worth reading.  EPIC's testimony on digital infrastructure protection.
  555. <http://www.epic.org/security/EPIC_testimony_0200.pdf>
  556.  
  557. House passes digital signature legislation:
  558. <http://www.cnn.com/2000/TECH/computing/01/31/esignatures/>
  559.  
  560. France sues the U.S. and U.K. over ECHELON:
  561. <http://www.the-times.co.uk/news/pages/tim/2000/02/10/timfgneur01007.html?999>
  562.  
  563. Former CIA director John Deutch brought classified information home on his 
  564. unsecured laptop.
  565. <http://www.fcw.com/fcw/articles/2000/0131/web-security-02-04-00.asp>
  566. <http://www.wired.com/news/print/0,1294,34105,00.html>
  567.  
  568. New vulnerabilities in e-commerce.  Some shopping carts allow shoppers to 
  569. alter fields in HTML forms and URLs to alter prices of items they are buying.
  570. <http://www.computerworld.com/home/print.nsf/all/000202E636>
  571. <http://www.usatoday.com/life/cyber/nb/nb2.htm>
  572. <http://www.theregister.co.uk/000203-000006.html>
  573.  
  574. ** *** ***** ******* *********** *************
  575.  
  576.       Mitnick Case Yields New Crypto Twist
  577.  
  578.  
  579.  
  580. When Kevin Mitnick was captured, federal agents seized two of his laptop 
  581. computers.  Several files on those computers were encrypted.  During 
  582. pre-trial discovery, the prosecution refused to give copies of the 
  583. encrypted files to the defense unless Mitnick gave them the key.  The 
  584. defense argued that the Constitution required the government to turn over 
  585. any documents that might help Mitnick defend himself.  The prosecution 
  586. argued that since they had no idea what was in the files, they could be 
  587. potentially dangerous.  Unfortunately, the judge agreed with the prosecution.
  588.  
  589. <http://www.nytimes.com/library/tech/00/01/cyber/cyberlaw/28law.html>
  590.  
  591.  
  592. ** *** ***** ******* *********** *************
  593.  
  594.               The Doghouse:  X.com
  595.  
  596.  
  597.  
  598. A bank where you can withdraw money not just from your account, but from 
  599. anyone's account.  My favorite quote from X.com's CEO: "I don't think a 
  600. mistake was made."  Sadly, I believe him.
  601.  
  602. <http://www.zdnet.com/zdnn/stories/news/0,4586,2429999,00.html>
  603. <http://www.currents.net/newstoday/00/01/31/news4.html>
  604. <http://www.nytimes.com/library/tech/00/01/biztech/articles/28secure.html>
  605.  
  606.  
  607. ** *** ***** ******* *********** *************
  608.  
  609.                     Cookies
  610.  
  611.  
  612.  
  613. Cookies are a clever programming trick built into WWW browsers.  Basically, 
  614. a cookie is a little bit of data that a Web server gives to a browser.  The 
  615. browser stores the data on the user's computer, and returns it to the 
  616. server whenever the browser returns to the server.  Cookies can do all 
  617. sorts of useful and good things.  Unfortunately, they can also do all sorts 
  618. of useful bad things.  First I'll explain how they work; then I'll talk 
  619. about the problems.
  620.  
  621. The WWW is basically a stateless protocol.  This means that the server 
  622. doesn't know who you are from one click to the next.  All the server does 
  623. is serve up Web pages.  A browser asks for a Web page; the server gives it 
  624. to it.  The server has no idea if this is the same browser as before or a 
  625. different browser, nor does it care.  This works great for simple, static, 
  626. Web sites that just contain informational pages.
  627.  
  628. More complex Web sites are dynamic.  Retail Web sites often have shopping 
  629. carts, which travel with you as you browse the site.  Paid access 
  630. informational sites have usernames and passwords, which travel with you as 
  631. you go from page to page.  (I would find it annoying to have to type my 
  632. username and password in every time I wanted to see another New York Times 
  633. article.)  Cookies are a way to handle this.
  634.  
  635. Remember that the WWW protocols are stateless; there is no way for the 
  636. server to remember who you are from one mouse click to the next.  By giving 
  637. the browser a cookie and then asking for it back, the server can remember 
  638. who you are.  "Oh yes, you're user 12345657; this is your shopping 
  639. cart."  Cookies allow the browser to add state to the WWW protocols.  You 
  640. can think of them as a large distributed database, with pieces stored on 
  641. millions of browsers throughout user-land.
  642.  
  643. So far, so good.  And mostly, cookies are good, if the server placing the 
  644. cookie plays by the rules.  The server can set how long the cookie lasts 
  645. before it expires: a few days seems like a good number.  A server can set 
  646. restrictions on who can access the cookie.  They usually limit access to 
  647. servers in the same domain; this means that if your cookie comes from 
  648. random-merchant.com, than only random-merchant.com can access the cookie.
  649.  
  650. The problems come when they are abused.  Some servers use cookies to track 
  651. users from site to site, and some use them to uncover the identity of the 
  652. user.  Here's an easy example: there are companies that resell advertising 
  653. space on popular sites.  DoubleClick is a company that does that; often the 
  654. ads you see are placed there by DoubleClick in arrangement with the 
  655. site.  If you're browsing on sex-site.com, you're going to see a portion of 
  656. that window that comes from DoubleClick.com.  DoubleClick.com gives you a 
  657. cookie.  Later (that day, or maybe another day), when you're browsing on 
  658. CDNow.com, there might be another DoubleClick-placed ad.  DoubleClick can 
  659. request the cookie from your browser and, because the cookie says that it 
  660. was created while you were visiting a sex site, send you targeted ads while 
  661. you're browsing CDNow.  Because DoubleClick is on a bunch of commerce 
  662. sites, its cookies can be used to track you across all of those sites.
  663.  
  664. Even worse, if you type your e-mail address in at any of those sites and 
  665. DoubleClick gets it, DoubleClick can now attach an e-mail address to your 
  666. browsing habits.  All it needs is for you to type that address in once -- 
  667. that's ordering only one thing -- and it has it forever.  (Or, for as long 
  668. as that cookie has not expired, which can be years.)
  669.  
  670. DoubleClick freely admits they collect data and use that data to target ads 
  671. to users, but until recently they denied building an identity 
  672. database.  Two weeks ago, USA Today exposed their duplicity.  They have 
  673. since admitted that they try to collect names and attach cookies to 
  674. off-line identities.  The implications for private Web browsing are profound.
  675.  
  676. There's more.  Sites can send you a cookie in e-mail that it can use to 
  677. identify you if you later visit that site with your browser.  Here's how it 
  678. works:  the site sends you a piece of HTML e-mail.  (This implies you're 
  679. using an e-mail program that supports HTML messages, such as Microsoft's 
  680. Outlook and Outlook Express, Netscape Messenger, or Eudora.)  The message 
  681. contains a URL to a graphic, which the site can use to send you a 
  682. cookie.  Now, when you browse the site at some later date, the site can use 
  683. the cookie to link the browsing with the e-mail, and hence the e-mail 
  684. address.  Supposedly this has been used by some sites to track Web surfers.
  685.  
  686. Some things cookies cannot do:  Cookies cannot steal information from your 
  687. computer.  A cookie is simply some data that the server gives the browser, 
  688. and the browser later returns.  A cookie cannot grab your passwords or 
  689. files.  (ActiveX, Java, and JavaScript are much more dangerous in this 
  690. regard.)  Cookies cannot steal your credit card numbers.
  691.  
  692. The lesson here is that cookies are not bad, but there are some very 
  693. malevolent uses of them.  There are ways in most browsers to turn cookies 
  694. off completely, and third-party programs that help you manage them 
  695. better.  Managing is a better solution, since some Web sites refuse entry 
  696. to people who don't accept cookies.
  697.  
  698. "Opt out" of DoubleClick.  They can't keep your personal information if you 
  699. tell them not to.  DO THIS NOW.
  700. <http://www.cdt.org/action/doubleclick.shtml>
  701.  
  702. Cookie blocking software:
  703. <http://www.junkbusters.com/ht/en/cookies.html>
  704. <http://www.ecst.csuchico.edu/~atman/spam/adblock.shtml>
  705.  
  706. Anonymous Web browsing:
  707. <http://www.zeroknowledge.com>
  708.  
  709. Stories on DoubleClick's duplicity:
  710. <http://www.usatoday.com/life/cyber/tech/cth211.htm>
  711. <http://www.hackernews.com/arch.html?012600#1>
  712. <http://news.cnet.com/news/0-1005-200-1531929.html?dtn.head>
  713.  
  714. Lawsuit against DoubleClick:
  715. <http://www.wired.com/news/print/0,1294,33964,00.html>
  716.  
  717. CDT's testimony on online profiling:
  718. <http://www.cdt.org/testimony/ftc/mulliganFTC.11.30.99.shtml>
  719.  
  720.  
  721. ** *** ***** ******* *********** *************
  722.  
  723.                Comments from Readers
  724.  
  725.  
  726.  
  727. From: Andrew D. Fernandes <andrew@cryptonym.com>
  728. Subject: Publicity Attacks
  729.  
  730. I have a couple of comments regarding your "Publicity Attack" article in 
  731. the January Crypto-Gram.
  732.  
  733. First, you insinuated that my company, Cryptonym, being a PKI vendor, had 
  734. somehow profited by publicizing the Microsoft/NSA issue.  In fact, we 
  735. didn't make a penny off of the information.  Heck, I couldn't sell you 
  736. anything even if I wanted to.  We are at least a year from releasing any 
  737. products whatsoever -- products that will be fully open source -- and we 
  738. only take on a very limited amount of consulting.
  739.  
  740. We thought that we were doing the "Right Thing" by publicizing the fact 
  741. that all US companies wanting to export crypto software had to involve 
  742. themselves somehow with the NSA.  It was never our intention to make money 
  743. off of our finding, and so far, we haven't.
  744.  
  745. Second, you discuss publicity attacks.  Apparently, we cannot trust nCipher 
  746. or eEye to discuss security because they sell security products and 
  747. consulting.  In fact, at the end of the Crypto-Gram is a note indicating 
  748. that we should be wary of claims about elliptic curves made by Alfred 
  749. Menezes because he has financial interest in Certicom.  I think that this 
  750. is going too far.
  751.  
  752. Yes, perhaps nCipher and eEye (and maybe even Cryptonym) did a bad job 
  753. publicizing security holes.  Maybe Alfred wants to fool everybody about the 
  754. security of elliptic curves for his own nefarious gain.  But get real!
  755.  
  756. Everybody in this field -- including you and Counterpane -- has strong 
  757. monetary ties to the industry, therefore everything everybody says has to 
  758. be taken in context.  These financial ties do not mean that a company's 
  759. advice or press releases cannot be trusted.  Taking advice about 
  760. cryptography is no different than taking advice from your lawyer.  You have 
  761. to know how your lawyer will benefit from you taking their advice.
  762.  
  763. But I think it's presumptuous to imply that we lack professional integrity 
  764. if you disagree with us.  For instance, why are you advising people to use 
  765. RSA over ECC? Why not ElGamal or Authenticated Diffie-Hellman? After all, 
  766. RSA is patented, while ElGamal and ADH are not...  Wait! Does Counterpane 
  767. hold any shares of RSA?! Could Counterpane be making money by advising 
  768. people that ECC isn't as good as RSA?
  769.  
  770. I certainly hope not.  I don't agree with your ECC vs. RSA advice (and 
  771. neither does Alfred Menezes).  However, I do believe in you and your 
  772. company's professional integrity.
  773.  
  774.  
  775. From: Geoff Thorpe <geoff@eu.c2.net>
  776. Subject: nCipher's Key-Finding Attack
  777.  
  778. I was interested to read your thoughts on the nCipher-announced 
  779. key-scanning attacks.  As someone who works for a company that produces an 
  780. open-source based secure web-server I would have as much temptation as 
  781. anyone to play down the importance of such attacks -- especially as the 
  782. desired inference seems to be that the web-server can't be secure unless 
  783. one shells out on hardware crypto too! However, I feel it's dangerous to 
  784. disregard what the underlying work may have to tell us about our security 
  785. and configurations, regardless of whether or not that involves taking it to 
  786. the extent that press release may like us to (which is to conclude hardware 
  787. crypto is the solution to the problem).
  788.  
  789. I do generally agree with the sentiment that these key-scanning attacks 
  790. aren't nearly as sensational as the press might like (or be led) to believe 
  791. -- key scanning is nothing new and this work has simply sped it up quite a 
  792. bit, and there are only very specialized kinds of web-server usage where 
  793. these attacks can be mounted against a server that has been set up 
  794. competently.  However it is incompetently set up web-servers that are 
  795. mostly likely to be discussed to illustrate and justify attacks so we're 
  796. best to look under the hood to see what we can take and what we can discard 
  797. from all this.
  798.  
  799. IMHO, the research behind the announcement is legitimate and worthy of a 
  800. look -- if for no other reason, to get a more healthy respect for 
  801. key-protection.  In particular, the research uses some interesting ideas on 
  802. scanning large blocks of data for areas of high-entropy before using more 
  803. refined search techniques to track down actual keys in the "haystack".  It 
  804. rather effectively illustrates why one must have a keen eye for scenarios 
  805. where unencrypted private keys lie in any media subject to brute-force 
  806. scanning, no matter how impossibly resource intensive the scanning attacks 
  807. may at first appear.  The research in question illustrates how a large 
  808. hard-disk could be scanned quite quickly to search out a private key that 
  809. may lie in it (e.g., a swap partition, a core dump, etc.).  Everyone knows 
  810. an unencrypted private key is always a target -- but the research gives 
  811. some considerable warning to those who might have previously thought 1 
  812. private key in 2 Gb of data was too difficult a thing to find.
  813.  
  814. Also, the attack has at least led us to consider situations where this kind 
  815. of attack is or is not an issue rather than allowing hackers to do it for 
  816. us.  The truth is that this family of attacks, at least in the case of 
  817. web-servers, is only a serious threat for multi-hosting servers that run 
  818. multiple virtual hosts in the same web-server application that is running a 
  819. secure virtual host (and does not use any setuid on the web-server child 
  820. processes).  In that scenario, an administrator who can upload and activate 
  821. native (e.g., CGI) programs in their virtual host can not only scan for and 
  822. find their own private key (if they have one), but also the private keys of 
  823. any other loaded virtual hosts running in the same processes (or as the 
  824. same user).  By attaching to a running process (as debuggers do) or using 
  825. some "/proc"-style mechanism to get direct access to a process's virtual 
  826. memory, you can begin your scanning as you would on a regular file.  There 
  827. are not many servers running in scenarios like this (where an 
  828. "administrator" can compromise anyone except him/her-self), but the 
  829. research has at least allowed to us to consider exactly who is and isn't 
  830. vulnerable (helping the former, and providing some peace-of-mind to the 
  831. latter) before the lessons are learnt the hard way.
  832.  
  833.  
  834. From: Nicko van Someren <nicko@ncipher.com>
  835. Subject: Re: Key Finding
  836.  
  837. First, I would like to point out a significant inaccuracy in your 
  838. report.  You state in the penultimate paragraph that "[the] nCipher release 
  839. included a hacker tool".  This is incorrect.  We have built a tool that 
  840. efficiently finds SSL server keys and we have shown it to a limited number 
  841. of web server vendors, but we have NEVER released the code; nor do we have 
  842. any intention of doing so.
  843.  
  844. On the broader issue of what you call "publicity attacks," I feel I must 
  845. defend nCipher's issuance of a press release on this topic.  An essential 
  846. aspect of developing security solutions is finding the weaknesses in 
  847. existing systems, and when those weaknesses are found it is reasonable to 
  848. let those who will be affected know.  After making the theoretical attacks 
  849. known in February 1999, we found that many web server vendors felt that the 
  850. attacks were impractical and ignored the issue.  Thus we went on to prove 
  851. the practicality of these attacks and let the server vendors have the 
  852. details of our new results.  We then went on to let the rest of the world know.
  853.  
  854. While you are right to say that nCipher has some interest in the results of 
  855. this research, it is rare for any company to carry out research without 
  856. having some interest in the results.
  857.  
  858. We stand by our stance that publication of potential modes of attack is 
  859. preferable to obscuring them and allowing them to be employed on an 
  860. unsuspecting world.
  861.  
  862.  
  863. From: ruth@innocent.com
  864. Subject: Radio Pirates
  865.  
  866. The "Radio pirates" story originated in New Scientist, where for all I know 
  867. it was told in a more balanced way, and probably had a side panel 
  868. explaining RDS technology and the reason for this vulnerability.
  869.  
  870. RDS (Radio Data System) lets consumer radios decode a low bit rate digital 
  871. signal from compatible FM broadcasts.  This signal can include a station ID 
  872. (such as "BBC R4" or "KISS FM", and various other info, but there is also 
  873. an additional feature which drivers can switch on at their option called TP 
  874. (Traffic Programme) which switches to local stations when they are 
  875. broadcasting a travel update.
  876.  
  877. Just why is this a "Good illustration of the hidden vulnerabilities in 
  878. digital systems"?  Even if you believed the misleading articles from the 
  879. BBC which says that "radio stays tuned in until ... the driver switches off 
  880. the RDS feature," you'd still realise that this system degrades nicely to 
  881. ordinary FM radio service at the push of a button.  Actually those reports 
  882. are an exaggeration, all the RDS car radios I've ever seen had a button 
  883. labelled "TP", which when pressed enables or disables just the traffic 
  884. programme service.  This leaves all the other benefits of RDS intact.
  885.  
  886. I cannot think of a mechanism that would permit radios to identify and 
  887. ignore pirate TP signals, without going to fully fledged DAB (as the UK 
  888. inevitably will in the next decade anyway)? Offering an optional additional 
  889. service which is subject to a potential DOS doesn't seem like such a 
  890. vulnerability to me.
  891.  
  892.  
  893. From: anonymous
  894. Subject: French Smart Card Break
  895.  
  896. in the December 15, 1999 issue of Crypto-Gram, you wrote:
  897.  
  898.  > A French engineer succeeded in factoring the 640-bit
  899.  > RSA key stored in the chip on the card (all French
  900.  > "CB" credit cards have had a chip since 1990).
  901.  
  902. What is clearly established [agreed by Serge Humpich and the Groupement des 
  903. Cartes Bancaires in court] is that Humpich made some counterfeit Smart 
  904. Cards, with incremental account numbers, and used them to buy metro tickets 
  905. in an automatic machine, as a demonstration to the Groupement.  This is 
  906. basically what he is charged for.  The judge is expected to release a 
  907. verdict on February 25, 2000.  A summary (in French) of the audience is at 
  908. <http://www.legalis.net/legalnet/actualite/affairehumpish/pagehumpish.htm>
  909.  
  910.  >From several sources, including Humpich himself on a TV show and this 
  911. audience report, he was trying to sell his expertise to the Groupement, 
  912. through a lawyer in an attempt to remain anonymous.
  913.  
  914. The 640-bit claim originated in the "Pirate Mag" magazine (also known for 
  915. promoting the idea that PGP has a backdoor).  They have an interview 
  916. <http://www.acbm.com/pirates/num_05/interview.html> of Serge Humpich where 
  917. he claims:
  918. - He broke a "fairly solid 96 digits code" [i.e. 320 bits] used by the 
  919. Groupement for the "CB" credit cards, with details consistent with an RSA 
  920. signature scheme with simple redundancy.
  921. - He made a spectacular demonstration to experts, factoring some special 
  922. format 640-bit public modulus, guessing the factors had been chosen close 
  923. to the square root of the modulus and with some special properties.  He is 
  924. clear his method does not work in a general case.  He makes no explicit 
  925. claim 640-bit signatures are used in the counterfeit Smart Cards.  I failed 
  926. to find any independent confirmation of a 640-bit factorization by Humpich, 
  927. or even any other statement attributed to Humpich that he ever factored a 
  928. 640-bit RSA key.
  929.  
  930. Based on undeniable evidence that the Groupement des Cartes Bancaires 
  931. originally used a systemwide 321 bits public key, and the lack of evidence 
  932. of wider keys in general use as of early 1999, many believe that the card 
  933. fraud Humpich demonstrated is a combination of:
  934. - Factoring the systemwide public modulus of 321 bits, which corresponding 
  935. secret key is used at card issuance to produce a static 320-bit RSA 
  936. signature held in the card, certifying the 16 digits card number and expiry 
  937. date; this static signature being checked by POSTs as a simple off-line 
  938. validation of the card.
  939. - Making working Smart Cards holding counterfeit card number, expiry date, 
  940. and signature thereof.
  941.  
  942. <http://humpich.com/>, a recent Web site on the case with sources 
  943. apparently close to Serge Humpich, describes how he factored a 321-bit key 
  944. in 1997, citing the classical MPQS factoring algorithm, modest computing 
  945. resources, and a Japanese program.  They present 640-bit keys as a 
  946. reasonable choice the Groupement des Cartes Bancaires could have made, but 
  947. did not.
  948.  
  949. The same Web site contains on-line scans of publications where French 
  950. expert Louis C. Guillou, known to be involved in the design of the Smart 
  951. Card system used by the Groupement des Cartes Bancaires, warns as early as 
  952. 1988 [in French] then again in 1990 [in English] that the 320 bit key then 
  953. in still-experimental use by CB is obsolete.
  954. <http://humpich.com/LCguillou_AnnTelecom_No43_1988.jpg>
  955. <http://humpich.com/SmartCard19900810-2.jpg>
  956.  
  957. It could be that Humpich demonstrated he can break an obsolete system, 
  958. tried to make money out of it, and as a retaliation is being sued using 
  959. whatever legal means available.
  960.  
  961. Make your own opinion.
  962.  
  963.  
  964. ** *** ***** ******* *********** *************
  965.  
  966. CRYPTO-GRAM is a free monthly newsletter providing summaries, analyses, 
  967. insights, and commentaries on computer security and cryptography.
  968.  
  969. To subscribe, visit http://www.counterpane.com/crypto-gram.html or send a 
  970. blank message to crypto-gram-subscribe@chaparraltree.com.  To unsubscribe, 
  971. visit http://www.counterpane.com/unsubform.html.  Back issues are available 
  972. on http://www.counterpane.com.
  973.  
  974. Please feel free to forward CRYPTO-GRAM to colleagues and friends who will 
  975. find it valuable.  Permission is granted to reprint CRYPTO-GRAM, as long as 
  976. it is reprinted in its entirety.
  977.  
  978. CRYPTO-GRAM is written by Bruce Schneier.  Schneier is founder and CTO of 
  979. Counterpane Internet Security Inc., the author of "Applied Cryptography," 
  980. and an inventor of the Blowfish, Twofish, and Yarrow algorithms.  He served 
  981. on the board of the International Association for Cryptologic Research, 
  982. EPIC, and VTW.  He is a frequent writer and lecturer on computer security 
  983. and cryptography.
  984.  
  985. Counterpane Internet Security, Inc. is a venture-funded company bringing 
  986. innovative managed security solutions to the enterprise.
  987.  
  988. http://www.counterpane.com/
  989.  
  990. Copyright (c) 2000 by Counterpane Internet Security, Inc.
  991.  
  992.  
  993.  
  994.