home *** CD-ROM | disk | FTP | other *** search
/ Power Hacker 2003 / Power_Hacker_2003.iso / E-zine / Magazines / crypto-gram / crypto-gram-0103.txt < prev    next >
Encoding:
Text File  |  2002-05-27  |  44.0 KB  |  923 lines

  1.                   CRYPTO-GRAM
  2.  
  3.                  March 15, 2001
  4.  
  5.                by Bruce Schneier
  6.                 Founder and CTO
  7.        Counterpane Internet Security, Inc.
  8.             schneier@counterpane.com
  9.           <http://www.counterpane.com>
  10.  
  11.  
  12. A free monthly newsletter providing summaries, analyses, insights, and 
  13. commentaries on computer security and cryptography.
  14.  
  15. Back issues are available at 
  16. <http://www.counterpane.com/crypto-gram.html>.  To subscribe or 
  17. unsubscribe, see below.
  18.  
  19.  
  20. Copyright (c) 2001 by Counterpane Internet Security, Inc.
  21.  
  22.  
  23. ** *** ***** ******* *********** *************
  24.  
  25. In this issue:
  26.       The Security Patch Treadmill
  27.       Crypto-Gram Reprints
  28.       Insurance and the Future of Network Security
  29.       News
  30.       Counterpane Internet Security News
  31.       Harvard's "Uncrackable" Crypto
  32.       TCP/IP Initial Sequence Number Flaw
  33.       The Doghouse: iBallot.com
  34.       The "Death" of IDS?
  35.       802.11 Security
  36.       Comments from Readers
  37.  
  38.  
  39. ** *** ***** ******* *********** *************
  40.  
  41.          The Security Patch Treadmill
  42.  
  43.  
  44.  
  45.     "Well, in our country," said Alice, panting a little,
  46.     "you'd generally get somewhere else -- if you ran very
  47.     fast for a long time, as we've been doing."
  48.     "A slow sort of country!" said the Queen. "Now here,
  49.     you see, it takes all the running you can do, to keep
  50.     in the same place."
  51.        --Through the Looking Glass, by Lewis Carroll.
  52.  
  53. Last week, the FBI announced that over the past year, several groups of 
  54. Eastern European hackers had broken into at least 40 companies' websites, 
  55. stolen credit card numbers, and in some cases tried to extort money from 
  56. theeir victims.  The network vulnerabilities exploited by these criminals 
  57. were known, and patches that closed them were available -- but none of the 
  58. companies had installed them.  In January 2001, the Ramen worm targeted 
  59. known vulnerabilities in several versions of Red Hat Linux.  None of the 
  60. thousands of infected systems had their patches up to date.  In October 
  61. 2000, Microsoft was molested by unknown hackers who wandered unchallenged 
  62. through their network, accessing intellectual property, for weeks or 
  63. months.  According to reports, the attackers would not have been able to 
  64. break in if Microsoft patches had been up to date.  The series of 
  65. high-profile credit card thefts in January 2000, including the CD Universe 
  66. incident, were also the result of uninstalled patches.  A patch issued 
  67. eighteen months previously would have protected these companies.
  68.  
  69. What's going on here?  Isn't anyone installing security patches 
  70. anymore?  Doesn't anyone care?
  71.  
  72. What's going on is that there are just too damn many patches.  It's simply 
  73. impossible to keep up.  I get weekly summaries of new vulnerabilities and 
  74. patches.  One alert service listed 19 new patches in a variety of products 
  75. in the first week of March 2001. That was an average week.  Some of the 
  76. listings affected my network, and many of them did not. Microsoft Outlook 
  77. had over a dozen security patches in the year 2000.  I don't know how the 
  78. average user can possibly install them all; he'd never get anything else done.
  79.  
  80. Security professionals are quick to blame system administrators who don't 
  81. install every patch.  "They should have updated their systems; it's their 
  82. own fault when they get hacked."  This is beginning to feel a lot like 
  83. blaming the victim.  "He should have known not to walk down that deserted 
  84. street; it's his own fault he was mugged."  "She should never have dressed 
  85. that provocatively; it's her own fault she was attacked."  Perhaps such 
  86. precautions should have been taken, but the real blame lies elsewhere.
  87.  
  88. Those who manage computer networks are people too, and people don't always 
  89. do the smartest thing.  They know they're supposed to install all 
  90. patches.  But sometimes they can't take critical systems 
  91. off-line.  Sometimes they don't have the staffing available to patch every 
  92. system on their network.  Sometimes applying a patch breaks something else 
  93. on their network. I think it's time the industry realized that expecting 
  94. the patch process to improve network security just doesn't work.
  95.  
  96. Security based on patches is inherently fragile.  Any large network is 
  97. going to have hundreds of vulnerabilities.  If there's a vulnerability in 
  98. your system, you can be attacked successfully and there's nothing you can 
  99. do about it.  Even if you manage to install every patch you know about, 
  100. what about the vulnerabilities that haven't been patched yet?  (That same 
  101. alert service listed 10  new vulnerabilities for which there is no 
  102. defense.)  Or the  vulnerabilities discovered but not reported yet?  Or the 
  103. ones still undiscovered?
  104.  
  105. Good security is resilient.  It's resilient to user errors.  It's resilient 
  106. to network changes.  And it's resilient to administrators not installing 
  107. every patch.  For the past two years I have been championing monitoring as 
  108. a way to provide this resilient security.  If there are enough motion 
  109. sensors, electric eyes, and pressure plates in your house, you'll catch the 
  110. burglar regardless of how he got in.  If you are monitoring your network 
  111. carefully enough, you'll catch a hacker regardless of what vulnerability he 
  112. exploited to gain access.  Monitoring makes a network less dependent on 
  113. keeping patches up to date; it's a process that provides security even in 
  114. the face of ever-present vulnerabilities, uninstalled patches, and 
  115. imperfect products.
  116.  
  117. In a perfect world, systems would rarely need security patches.  The few 
  118. patches they did need would automatically download, be easy to install, and 
  119. always work.  But we don't live in a perfect world.  Network administrators 
  120. are busy people, and networks are constantly changing.  Vigilant monitoring 
  121. does not "solve" computer security, but it is a much more realistic way of 
  122. providing resilient security.
  123.  
  124.  
  125. The Ramen worm:
  126. <http://www.zdnet.com/zdnn/stories/news/0,4586,2675147,00.html>
  127. <http://www.newsfactor.com/perl/story/6798.html>
  128. <http://www.securityfocus.com/archive/75/156624>
  129.  
  130. Security patches aren't being applied:
  131. <http://www.zdnet.com/zdnn/stories/news/0,4586,2677878,00.html>
  132. Best quote:  "Failing to responsibly patch computers led to 99 percent of 
  133. the 5,823 Web site defacements last year, up 56 percent from the 3,746 Web 
  134. sites defaced in 1999, according to security group Attrition.org."  I'm not 
  135. sure how they know, but is scary nonetheless.
  136.  
  137. The Eastern European credit card hackers:
  138. <http://www.sans.org/newlook/alerts/NTE-bank.htm>
  139. <http://www.nipc.gov/warnings/advisories/2001/01-003.htm>
  140. <http://www.fbi.gov/pressrm/pressrel/pressrel01/nipc030801.htm>
  141. <http://www.zdnet.co.uk/news/2001/9/ns-21473.html>
  142.  
  143. Many networks have not patched BIND after January's vulnerabilities were 
  144. patched:
  145. <http://www.computerworld.com/cwi/stories/0,1199,NAV47_STO58302,00.html>
  146.  
  147. The Microsoft attack:
  148. <http://www.counterpane.com/crypto-gram-0011.html#7>
  149.  
  150. Patch your apps:
  151. <http://www.zdnet.com/zdhelp/stories/main/0,5594,2317459,00.html>
  152.  
  153.  
  154. Author's note:  Every time I write an essay that speaks favorably about 
  155. Counterpane, I get e-mails from people accusing me of advertising.  I 
  156. disagree, and I'd like to explain.  Much of my current thinking about 
  157. computer security stemmed from years of consulting.  I watched as product 
  158. after product failed in the field, and I tried to figure out why.  My 
  159. conclusions are largely chronicled in my book _Secrets and Lies_, and are 
  160. reflected in the business model of Counterpane Internet Security, Inc.  I 
  161. don't extol the virtues of monitoring because that's what Counterpane does; 
  162. Counterpane provides Managed Security Monitoring because I believe it is 
  163. the future of security.  I see monitoring as a way to achieve security in a 
  164. world where the products are hopelessly broken.  Over the next several 
  165. months I will publish more essays on security, and monitoring is prominent 
  166. in many of them.  I'm not shilling Counterpane; it's just where my thinking 
  167. is.
  168.  
  169.  
  170. ** *** ***** ******* *********** *************
  171.  
  172.             Crypto-Gram Reprints
  173.  
  174.  
  175.  
  176. Software complexity and security:
  177. <http://www.counterpane.com/crypto-gram-0003.html#SoftwareComplexityandSecur 
  178. ity>
  179.  
  180. Why the worst cryptography is in systems that pass initial cryptanalysis:
  181. <http://www.counterpane.com/crypto-gram-9903.html#initial>
  182.  
  183.  
  184. ** *** ***** ******* *********** *************
  185.  
  186.   Insurance and the Future of Network Security
  187.  
  188.  
  189.  
  190. Eventually, the insurance industry will subsume the computer security 
  191. industry.  Not that insurance companies will start marketing security 
  192. products, but rather that the kind of firewall you use -- along with the 
  193. kind of authentication scheme you use, the kind of operating system you 
  194. use, and the kind of network monitoring scheme you use -- will be strongly 
  195. influenced by the constraints of insurance.
  196.  
  197. Consider security, and safety, in the real world.  Businesses don't install 
  198. building alarms because it makes them feel safer; they do it because they 
  199. get a reduction in their insurance rates.  Building-owners don't install 
  200. sprinkler systems out of affection for their tenants, but because building 
  201. codes and insurance policies demand it.  Deciding what kind of theft and 
  202. fire prevention equipment to install are risk management decisions, and the 
  203. risk taker of last resort is the insurance industry.
  204.  
  205. This is sometimes hard for computer techies to understand, because the 
  206. security industry has trained them to expect technology to solve their 
  207. problems.  Remember when all you needed was a firewall, and then you were 
  208. safe?  Remember when it was an intrusion detection product?  Or a PKI?  I 
  209. think the current wisdom is that all you need is biometrics, or maybe smart 
  210. cards.
  211.  
  212. The real world doesn't work this way.  Businesses achieve security through 
  213. insurance.  They take the risks they are not willing to accept themselves, 
  214. bundle them up, and pay someone else to make them go away.  If a warehouse 
  215. is insured properly, the owner really doesn't care if it burns down or 
  216. not.  If he does care, he's underinsured.  Similarly, if a network is 
  217. insured properly, the owner won't care whether it is hacked or not.
  218.  
  219. This is worth repeating: a properly insured network is immune to the 
  220. effects of hacking.  Concerned about denial-of-service attacks?  Get 
  221. bandwidth interruption insurance.  Concerned about data corruption?  Get 
  222. data integrity insurance.  (I'm making these policy names up, 
  223. here.)  Concerned about negative publicity due to a widely publicized 
  224. network attack?  Get a rider on your good name insurance that covers that 
  225. sort of event.  The insurance industry isn't offering all of these policies 
  226. yet, but it is coming.
  227.  
  228. When I talk about this future at conferences, a common objection I hear is 
  229. that premium calculation is impossible.  Again, this is a technical 
  230. mentality talking.  Sure, insurance companies like well-understood risk 
  231. profiles and carefully calculated premiums.  But they also insure satellite 
  232. launches and the palate of wine critic Robert Parker.  If an insurance 
  233. company can protect Tylenol against some lunatic putting a poisoned bottle 
  234. on a supermarket shelf, anti-hacking insurance will be a snap.
  235.  
  236. Imagine the future....  Every business has network security insurance, just 
  237. as every business has insurance against fire, theft, and any other 
  238. reasonable threat.  To do otherwise would be to behave recklessly and be 
  239. open to lawsuits.  Details of network security become check boxes when it 
  240. comes time to calculate the premium.  Do you have a firewall?  Which 
  241. brand?  Your rate may be one price if you have this brand, and a different 
  242. price if you have another brand.  Do you have a service monitoring your 
  243. network?  If you do, your rate goes down this much.
  244.  
  245. This process changes everything.  What will happen when the CFO looks at 
  246. his premium and realizes that it will go down 50% if he gets rid of all his 
  247. insecure Windows operating systems and replaces them with a secure version 
  248. of Linux?  The choice of which operating system to use will no longer be 
  249. 100% technical.  Microsoft, and other companies with shoddy security, will 
  250. start losing sales because companies don't want to pay the insurance 
  251. premiums.  In this vision of the future, how secure a product is becomes a 
  252. real, measurable, feature that companies are willing to pay for...because 
  253. it saves them money in the long run.
  254.  
  255. Other systems will be affected, too.  Online merchants and brick-and-mortar 
  256. merchants will have different insurance premiums, because the risks are 
  257. different.  Businesses can add authentication mechanisms -- public-key 
  258. certificates, biometrics, smart cards -- and either save or lose money 
  259. depending on their effectiveness.  Computer security "snake-oil" peddlers 
  260. who make outlandish claims and sell ridiculous products will find no buyers 
  261. as long as the insurance industry doesn't recognize their value.  In fact, 
  262. the whole point of buying a security product or hiring a security service 
  263. will not be based on threat avoidance; it will be based on risk management.
  264.  
  265. And it will be about time.  Sooner or later, the insurance industry will 
  266. sell everyone anti-hacking policies.  It will be unthinkable not to have 
  267. one.  And then we'll start seeing good security rewarded in the marketplace.
  268.  
  269.  
  270. A version of this essay originally appeared in Information Security Magazine:
  271. <http://www.infosecuritymag.com/articles/february01/columns_sos.shtml>
  272.  
  273. An article on hacking insurance:
  274. <http://cgi.zdnet.com/slink?85060:8469234>
  275.  
  276.  
  277. ** *** ***** ******* *********** *************
  278.  
  279.                       News
  280.  
  281.  
  282.  
  283. The Anna Kournikova worm was written using a virus-writing kit.  If this 
  284. doesn't get Microsoft's attention, I don't know what will.  And to the rest 
  285. of you, just say no to Outlook.
  286. <http://www.wired.com/news/technology/0,1282,41817,00.html>
  287.  
  288. Computer hackers could be prosecuted as terrorists under a new UK law: the 
  289. Terrorism Act 2000.  The Act significantly widens the definition of 
  290. terrorism to include those actions that "seriously interfere with or 
  291. seriously disrupt an electronic system."
  292. <http://www.zdnet.co.uk/news/2001/7/ns-21060.html>
  293. The Terrorism Act:
  294. <http://www.legislation.hmso.gov.uk/acts/acts2000/20000011.htm>
  295. Australians (at least those surveyed by ZDNet) agree with this:
  296. <http://cgi.zdnet.com/slink?84319:8469234>
  297.  
  298. What's wrong with copy protection, by John Gilmore:
  299. <http://www.toad.com/gnu/whatswrong.html>
  300.  
  301. This article is about the Seti@home project: people fake results to improve 
  302. their standings in the program.  The security moral is that the "attack 
  303. isn't worth the effort" justification often doesn't apply; people spend a 
  304. lot of effort attacking things that have no monetary value.
  305. <http://www.wired.com/news/technology/0,1282,41838,00.html>
  306.  
  307. I've repeatedly said that the Internet is too complex to secure.  This 
  308. article is about "Enterprise Application Portals," one of the next big 
  309. things.  When you read this article, marvel at all the protocols and 
  310. buzzwords and applications that are working in concert.  "Infrastructure 
  311. and access meet at the network edge, where organizations are increasingly 
  312. driven to deliver pervasive, personalized content and commerce.  Outside 
  313. the network edge are billions of Internet devices.  Inside the Network edge 
  314. is the enterprise's competitive machinery.  Whatever organizations erect at 
  315. the network edge must be highly scalable, reliable, available, and secure 
  316. all the time."  Yeah, right.
  317. <http://www.eaijournal.com/EBusiness/EnterpriseApplicationPx.asp>
  318.  
  319. IBM has withdrawn CPRM...
  320. <http://news.cnet.com/news/0-1006-201-4922288-0.html?tag=mn_hd>
  321. ...and replaced it with something almost identical:
  322. <http://slashdot.org/yro/01/02/23/2134255.shtml>
  323. A good analysis by John Gilmore:
  324. <http://cryptome.org/cprm-smoke.htm>
  325.  
  326. Claude Shannon dies:
  327. <http://www.cnn.com/2001/TECH/science/02/27/obit.shannon.ap/index.html>
  328.  
  329. Particularly amusing response to a Motion Picture Association threat letter 
  330. to a researcher who has various instantiations of DeCSS on his Web page:
  331. <http://www.cs.cmu.edu/~dst/DeCSS/Gallery/mpaa-reply-feb2001.html>
  332.  
  333. The U.S. General Accounting Office (GAO) has released this large report on 
  334. making PKI work:
  335. <http://www.gao.gov/new.items/d01277.pdf>
  336.  
  337. According to CNN, accused spy Robert Hanssen suspected that he was under 
  338. surveillance and send an encrypted message to his handlers:  "The comment 
  339. came from a letter that FBI officials said was encrypted on a computer 
  340. diskette found in a package -- taped and wrapped in a black plastic trash 
  341. bag -- that Hanssen dropped underneath a foot bridge in a park in Northern 
  342. Virginia, immediately before his arrest.  The FBI decrypted the letter and 
  343. described it in an affidavit filed in support of its search 
  344. warrant."  Interesting.  Hanssen wasn't stupid, and he probably was using a 
  345. good commercial encryption product.  What exactly did the FBI do to decrypt 
  346. the letter?
  347. <http://www.cnn.com/2001/US/02/27/fbi.spy/index.html>
  348. The FBI's affidavit, fascinating reading as it is, does not seem to confirm 
  349. this news story:
  350. <http://www.fas.org/irp/ops/ci/hanssen_affidavit.html>
  351.  
  352. "The Emperor's New Clothes: The Shocking Truth about Digital Signatures and 
  353. Internet Commerce."  Worth reading.
  354. <http://www.smu.edu/~jwinn/shocking-truth.htm>
  355.  
  356. A program called ShareSniffer automatically searches the Internet for 
  357. Windows machines with world-accessible hard drives or 
  358. directories.  Certainly some people may want the world to access their hard 
  359. drives, but most systems found are probably misconfigured.
  360. <http://www.securityfocus.com/news/159>
  361.  
  362. More about last fall's network break-in at Microsoft.  Honestly, I can't 
  363. tell how much of this is accurate.
  364. <http://seattletimes.nwsource.com/cgi-bin/WebObjects/SeattleTimes.woa/wa/got 
  365. oArticle?zsection_id=268448455&text_only=0&slug=hack23&document_id=134269414>
  366.  
  367. NIST released an intrusion-detection primer for federal agencies.  It is 
  368. useful reading for anyone interested.
  369. <http://csrc.nist.gov/publications/drafts/idsdraft.pdf>
  370.  
  371. And NIST has also released the draft FIPS for AES.  If you have any last 
  372. comments, this is the time to make them.
  373. <http://csrc.nist.gov/encryption/aes/>
  374.  
  375. A deliberate backdoor in the Palm OS.  It was put there to allow debugging 
  376. and testing, but the programmers neglected to remove 
  377. it.  Oops. 
  378. <http://www.zdnet.com/eweek/stories/general/0,11011,2692289,00.html>
  379.  
  380. A steganographic file system for Linux:
  381. <http://www.mcdonald.org.uk/StegFS/>
  382.  
  383. Lessons in bad user interface.  Why not to include an override button on 
  384. your device.
  385. <http://orlandosentinel.com/news/orl-nws-votebad04020401.story>
  386.  
  387. The practicalities, and ethics, of honeypots:
  388. <http://www.wired.com/news/culture/0,1284,42233,00.html>
  389.  
  390. The future of digital music licensing schemes?
  391. <http://www.ibiblio.org/Dave/Dr-Fun/df200103/df20010306.jpg>
  392.  
  393. The news is not that Amazon was hacked so badly, or that it went on for 
  394. four months.  The news is that Amazon denied it for so long, and threatened 
  395. legal action against those that first talked about the hack.
  396. <http://www.theregister.co.uk/content/8/17384.html>
  397. <http://www.theregister.co.uk/content/8/17387.html>
  398.  
  399. It's too late; Microsoft fixed it.  But just a few days ago there was one 
  400. more Q/A between the second and third question.  It read:  "Will the virus 
  401. impact my Macintosh if I am using a non-Microsoft e-mail program, such as 
  402. Eudora?  If you are using a Macintosh e-mail program that is not from 
  403. Microsoft, we recommend checking with that particular company. But most 
  404. likely other e-mail programs like
  405. Eudora are not designed to enable virus replication."
  406. <http://www.microsoft.com/mac/products/office/2001/virus_alert.asp>
  407.  
  408. Most companies do not want to go public with security breaches:
  409. <http://www2.cio.com/archive/030101/silence_content.html>
  410.  
  411. Twelve steps to security.  A good article (that quotes me extensively):
  412. <http://www.cio.com/archive/030101/keys.html>
  413.  
  414.  
  415. ** *** ***** ******* *********** *************
  416.  
  417.        Counterpane Internet Security News
  418.  
  419.  
  420.  
  421. Counterpane is hiring again.  Look at all the current job listings at 
  422. <http://www.counterpane.com/jobs.html>
  423.  
  424. Bruce Schneier is speaking at the RSA Security Conference, Monday 4/9, at 
  425. 9:00 AM, in San Francisco.
  426. <http://www.rsasecurity.com/conference/>
  427.  
  428. Schneier is speaking at two ISSA meetings, in Minneapolis on 3/20 at 1:30, 
  429. and in Boston on 3/22 at 2:30.
  430. Minneapolis: <http://www.mn-issa.org/>
  431. Boston: <http://www.issa-ne.org/>
  432.  
  433. Counterpane signs Keynote and Conxion:
  434. <http://www.counterpane.com/pr-infra.html>
  435.  
  436. Counterpane and PricewaterhouseCoopers offer joint service:
  437. <http://www.counterpane.com/pr-pwc.html>
  438.  
  439. Counterpane signs NetCertainty and OpenReach:
  440. <http://www.counterpane.com/pr-ncor.html>
  441.  
  442. Schneier lectured in Digital Rights Management at the University of Minnesota.
  443. Slides:
  444. <http://www.ima.umn.edu/talks/workshops/2-12-16.2001/schneier/DigitalRights. 
  445. pdf>
  446. Audio:
  447. <http://www.ima.umn.edu/recordings/Public_Lecture/2000-2001/feb_12_01/schnei 
  448. er.ram>
  449. MP3:
  450. <http://www.ima.umn.edu/recordings/Public_Lecture/2000-2001/feb_12_01/schnei 
  451. er-128.mp3>
  452.  
  453. Schneier has been interviewed (in Italian) here:
  454. <http://www.cdt.ch/giornale/inserto/Internet_e_sicurezza/12022001133144.asp>
  455.  
  456.  
  457. ** *** ***** ******* *********** *************
  458.  
  459.          Harvard's "Uncrackable" Crypto
  460.  
  461.  
  462.  
  463. Last month the New York Times reported a cryptography 
  464. breakthrough.  Michael O. Rabin and Yan Zong Ding, both of Harvard, 
  465. proposed an information-theoretical secure cipher.  (Yonatan Aumann was 
  466. also involved in the research.)  The idea is that a satellite broadcasts a 
  467. continuous stream of random bits.  The sender and receiver agree on several 
  468. random starting point in that stream, and use the streams as continuous 
  469. keys to XOR with the message.  Since the eavesdropper doesn't know the 
  470. starting point, he can't decrypt the message.  And since the stream is too 
  471. large to store in its entirety, the eavesdropper can't try different 
  472. starting points.
  473.  
  474. That's basically it.  The crypto isn't worth writing about (although 
  475. there's some interesting mathematics), but the context is.
  476.  
  477. One, the popular press does not count as peer review.  I have often watched 
  478. in amazement as the press grabs hold of some random piece of cryptography 
  479. and reports on it like it changes the world, only to ignore important 
  480. pieces of research.  When you read about something like this in the popular 
  481. press, pay attention to the motivations of the researchers and the public 
  482. relations people who convinced the reporters to write about it.  Academic 
  483. peer-review will happen in the upcoming years.
  484.  
  485. One of my biggest gripes with these sorts of press announcements is that 
  486. they ignore the research and the researchers that come before.  The model 
  487. and approach are not new; Ueli Maurer proposed it ten years ago.  (If you 
  488. want to look it up, the citation is: U. Maurer, "Conditionally-Perfect 
  489. Secrecy and a Provably-Secure Randomized Cipher," Journal of Cryptology, 
  490. vol. 5, no. 1, pp. 53-66, 1992.  I discuss some of this work in _Applied 
  491. Cryptography_, p. 419.)  Rabin and Ding are not to blame -- their academic 
  492. paper credits Maurer heavily, as well as other work that went before -- but 
  493. none of that came out in the press.
  494.  
  495. Two, while the paper's mathematical result is a new contribution to 
  496. cryptography, it's nowhere near strong enough to unleash the full potential 
  497. of the model.  I think there are better techniques in Maurer's paper for 
  498. finding public randomness, such as using the face of the moon as a public 
  499. source of randomness (his paper also includes in its model a satellite 
  500. broadcasting random bits).  And it's totally impractical.  Maurer's paper 
  501. provides better methods for establishing a secret channel in the presence 
  502. of an eavesdropper.  But because Harvard has a better public relations 
  503. machine, this result magically becomes news.
  504.  
  505. Three, this scheme will never be used.  Launching satellites gets cheaper 
  506. all the time, but why would someone have them broadcast random numbers when 
  507. they could be doing something useful instead?  Remember, strong encryption 
  508. is not our problem; we have secure algorithms.  In fact, it's the one 
  509. security problem we have solved; solving it better just doesn't matter.  I 
  510. often liken this to putting a huge stake in the ground and hoping the enemy 
  511. runs right into it.  You can argue about whether the stake should be a mile 
  512. tall or two miles tall, but a smart attack is just going to dodge the 
  513. stake.  I don't mean to trash the work; it is a contribution of theoretical 
  514. interest.  It's just that it should not be mistaken for a practical scheme.
  515.  
  516. Oh, and by the way, an attacker can store the continuous random stream of 
  517. bits from the satellite.  Just put another satellite in space somewhere, 
  518. and store the bits in a continuous transmission loop.  The neat property of 
  519. this attack is that the capacity of this storage mechanism scales at 
  520. exactly the same rate as the data stream's rate does.  There's no way to 
  521. defeat it by increasing data rate.  Isn't satellite data storage science 
  522. fiction?  Sure.  But no more than the initial idea.
  523.  
  524. <http://www.nytimes.com/2001/02/20/science/20CODE.html>
  525. <http://cryptome.org/key-poof.htm>
  526. <http://slashdot.org/articles/01/02/20/136219.shtml>
  527.  
  528. Maurer's Research:
  529. <http://www.inf.ethz.ch/department/TI/um/research/itc/>
  530.  
  531. A demo of one of Maurer's schemes, more practical than the Rabin scheme:
  532. <http://www.inf.ethz.ch/department/TI/um/research/keydemo>
  533.  
  534.  
  535. ** *** ***** ******* *********** *************
  536.  
  537. TCP/IP Initial Sequence Number Flaw
  538.  
  539.  
  540. Last week the security consulting company Guardent announced a new 
  541. vulnerability in TCP/IP.   This vulnerability is supposed to allow hackers 
  542. to hijack TCP/IP connections and do all sorts of nasty things.  They have 
  543. not published technical details, leading some people to accuse them of 
  544. making it up.  There have also been accusations of plagiarism of a 
  545. 15-year-old vulnerability.  The reality is a bit more complicated.
  546.  
  547. The flaw centers around the ability of an attacker to predict TCP/IP 
  548. sequence numbers (called Initial Sequence Numbers, or ISNs), and to use 
  549. this as a lever to break into systems.  Robert Tappan Morris (the son, not 
  550. the father; the one who wrote the 1988 Internet worm) first wrote about 
  551. this type of vulnerability in 1985.  It became an occasional hacker tool 
  552. after that; Kevin Mitnick used a sequence number predictor to break into 
  553. Tsutumo Shimomura's computer at the San Diego Supercomputer Center around 
  554. 1995.  Steve Bellovin wrote a paper extending this attack in 1989, and it 
  555. started receiving some serious attention in the security 
  556. community.  Bellovin also wrote RFC 1948, which recommends using a virtual 
  557. time base to randomize the ISNs and thwart this attack.
  558.  
  559. A number of vendors have opted not to use RFC 1948, because of the 
  560. (perceived) expense.  Instead, they often used home grown methods to 
  561. randomize ISNs.  Guardent's recent work is an extension of the work of 
  562. Morris and Bellovin.  The researchers found new ways of getting information 
  563. about the sequence numbers, and showed that hosts that don't use RFC 1948 
  564. are still vulnerable.
  565.  
  566. There's no plagiarism.  The (still unreleased) Guardent paper credits all 
  567. earlier work, even if the press release ignores it.  There are new attacks, 
  568. and real academic scholarship.  What we do have is an over-enthusiastic 
  569. public relations department touting yet another incremental improvement on 
  570. a well-known class of attack.  Interesting, but not worth all the press ink 
  571. it got.
  572.  
  573. Guardent's announcement:
  574. <http://www.guardent.com/pr2001-03-12-ips.html>
  575.  
  576. CERT advisory:
  577. <http://www.kb.cert.org/vuls/id/498440>
  578.  
  579. Morris's original paper:
  580. <ftp://ftp.research.att.com/dist/internet_security/117.ps.Z>
  581.  
  582. Bellovin's paper:
  583. <http://www.research.att.com/~smb/papers/ipext.ps>
  584.  
  585. RFC 1948:
  586. <http://www.ietf.org/rfc/rfc1948.txt>
  587.  
  588.  
  589. ** *** ***** ******* *********** *************
  590.  
  591.           The Doghouse: iBallot.com
  592.  
  593.  
  594.  
  595. I'll just reprint this from their Web site:  "iBallot.Com uses a number of 
  596. security and encryption features that, when combined, provide a very high 
  597. level of security throughout the entire voting process.  The details of 
  598. this process are proprietary, for obvious reasons.  It does not make a 
  599. great deal of sense to disclose how the iBallot.Com security system works 
  600. only to have a hacker come into the system, read about the system's 
  601. security, defeat the security and tamper with the voting process.  For this 
  602. reason, iBallot.Com does not publish its security processes.  However, with 
  603. the foregoing being said, the iBallot.Com system does employ encryption and 
  604. secure server technology to ensure that the entire voting process is fair, 
  605. accurate and not subject to tampering."
  606.  
  607. Encryption and secure server technology....  Boy, I certainly feel 
  608. better.  Good thing they don't disclose their security; if they did some 
  609. hacker might read about it and break it.  Who *are* these guys?
  610.  
  611. <http://www.iballot.com/faq2.cfm?docid=28>
  612.  
  613.  
  614. ** *** ***** ******* *********** *************
  615.  
  616.               The "Death" of IDS?
  617.  
  618.  
  619.  
  620. Recently I've been seeing several articles foretelling the death of 
  621. Intrusion Detection Systems (IDS).  Supposedly, changes in the way networks 
  622. work will make them an obsolete relic of simpler times.  While I agree that 
  623. the challenges IDSs face are serious, and that they will always have 
  624. limitations, I am more optimistic about their future.
  625.  
  626. IDSs are the network equivalent of virus scanners.  IDSs look at network 
  627. traffic, or processes running on hosts, for signs of attack.  If they see 
  628. one, they sound an alarm.  In _Secrets and Lies_, I spent several pages on 
  629. IDSs (pp. 194-197): how they work, how they fail, the problems of false 
  630. alarms.  For here, suffice it to say that the two problems that IDSs have 
  631. are 1) failing to detect real attacks, and 2) failing to ignore false alarms.
  632.  
  633. These two problems are nothing new, but several recent developments 
  634. threaten to undermine IDSs completely.
  635.  
  636. First is the rise of IPsec.  IPsec is a security protocol that encrypts IP 
  637. traffic.  An IDS can't detect what it can't understand, and is useless 
  638. against encrypted network traffic.  (Similarly, an anti-virus program can't 
  639. find viruses in encrypted e-mail attachments.)  As encryption becomes more 
  640. widespread on a network, an IDS becomes less useful.
  641.  
  642. Second is the emergence of Unicode.  In the July 2000 Crypto-Gram, I talked 
  643. about security problems associated with Unicode.  One problem is the 
  644. ability to disguise character strings in various ways.  Since most IDS 
  645. systems look for character strings in packets indicating certain network 
  646. attacks, Unicode threatens to make this job insurmountable.
  647.  
  648. Third is the increased distribution of networks.  Today's traffic is no 
  649. longer coming through one firewall, but rather via the firewall and 
  650. hundreds of different direct external links to customers, suppliers, joint 
  651. venture partners, outsourcing companies, IPsec gateways for telecommuters 
  652. and road warriors, etc.  This makes it very hard to monitor the traffic.
  653.  
  654. And fourth is the sheer speed of networks.  For an IDS to be effective, it 
  655. has to examine every packet.  This slows down an Ethernet software switch 
  656. or router, but completely stalls a gigabit hardware device.  Data 
  657. transmission rates are getting so fast that no IDS can possibly keep up.
  658.  
  659. Some security experts are predicting the death of IDSs, but I don't 
  660. agree.  Even with all of this, an IDS is still the most effective tool for 
  661. detecting certain network attacks.  But it is not a panacea.  I think of 
  662. IDSs as network sensors, similar to a burglar alarm on a house.  It won't 
  663. detect every attack against the house, it can be bypassed by a sufficiently 
  664. skilled burglar, but it is an effective security countermeasure.
  665.  
  666. And just as door and window alarms are more effective when combined with 
  667. motion sensors and electric eyes, IDSs are more effective when combined 
  668. with other network sensors.  Tripwire, for example, is a network sensor 
  669. that alarms if critical files are modified.  Honeypots include network 
  670. sensors that alarm if attacked.
  671.  
  672. The missing piece is a way to interpret and respond to these alarms.  The 
  673. whole point of building Counterpane Internet Security was to deal with the 
  674. problem of these sensors going off.  Someone has to watch these sensors 
  675. 24/7.  Someone has to correlate information from a variety of sensors, and 
  676. figure out what's a false alarm and what's real.  Someone has to know how 
  677. to respond, and to coach the network administrator through the process.  My 
  678. hope is that someone is Counterpane.  I think Counterpane is the company 
  679. that finally makes IDSs look good.
  680.  
  681. "Imminent death of..." predictions come in a couple of forms.  Most of them 
  682. are sales pitches, forecasting that somebody's product is going to kill off 
  683. the victim, one way or another.  (Often, most sane people will define the 
  684. proposed killer as actually in the doomed class; most things that are 
  685. "going to replace firewalls" are thinly disguised firewalls, for 
  686. instance.)  Those that aren't sales pitches are mostly just nabobs of 
  687. negativity, short-sighted people who like prophesying doom.  (My favorite 
  688. one of these is the first line of John Varley's _Steel Beach_: "In five 
  689. years, the penis will be obsolete.")
  690.  
  691. Whole classes of products are hard to kill.  They evolve in response for a 
  692. very long time.  IDSs are already evolving.  They're getting smarter, 
  693. faster, and more distributed.  The people forecasting the death of IDSs are 
  694. looking at the pressures against them, but they aren't proposing the kind 
  695. of radical shift that would replace an IDS with something better.  And 
  696. until that happens, IDSs are here to stay.
  697.  
  698.  
  699. Good article on the realities of IDS:
  700. <http://www.securitymanagement.com/library/000556.html>
  701.  
  702. Interesting (and good) review of IDS:
  703. <http://securityportal.com/articles/idsintroduction20010226.html>
  704.  
  705. Problems with IDS:
  706. <http://www.infoworld.com/articles/op/xml/00/12/11/001211opswatch.xml>
  707.  
  708. IDS and false positives:
  709. <http://www.zdnet.com/eweek/stories/general/0,11011,2606343,00.html>
  710.  
  711. Unicode and IDS:
  712. <http://www.securityfocus.com/focus/ids/articles/utf8.html>
  713.  
  714. Scholarly stuff:
  715. <http://secinf.net/info/ids/idspaper/idspaper.html>
  716. <http://www.all.net/journal/ntb/ids.html>
  717.  
  718.  
  719. ** *** ***** ******* *********** *************
  720.  
  721.                 802.11 Security
  722.  
  723.  
  724.  
  725. In February, researchers at (or formerly at) Berkeley published several 
  726. security vulnerabilities in the Wireless Equivalent Privacy (WEP) protocol, 
  727. part of the 802.11 wireless LAN standard.  This is the standard used by 
  728. most wireless LANs, including Apple's AirPort.  The job of the WEP is to 
  729. prevent unauthorized eavesdropping on the wireless network.
  730.  
  731. The result of the vulnerabilities is that eavesdropping is easy.  The 
  732. details are not really worth describing; read the academic paper if you 
  733. want to know.  They are all a result of sloppy cryptographic engineering, 
  734. and are easily fixable.
  735.  
  736. This "yet another vulnerability" story would normally not be worth writing 
  737. about, but the real morals are not obvious and were largely ignored by the 
  738. press.  News stories were along the lines of: "There are problems with 
  739. 802.11; they need to be fixed.  We'll all be more secure once they're 
  740. fixed."  I see a more general story: "There are problems in lots of 
  741. protocols, we find and fix them randomly, and this doesn't bode well for 
  742. the future of security."  The 802.11 problems are just an example of this 
  743. trend.
  744.  
  745. Security flaws like this are unnervingly common.  To quote from the paper: 
  746. "Design of secure protocols is difficult, and fraught with many 
  747. complications.  It requires special expertise beyond that acquired in 
  748. engineering network protocols."  This time 802.11 was broken, but you 
  749. should assume these sorts of problems occur in most other security 
  750. protocols.  Simply because some marketing literature says things like "uses 
  751. 128-bit RC4" doesn't mean that the product is secure.  Odds are, it isn't.
  752.  
  753. As bad as the discovered flaws are, there are usually worse security 
  754. problems.  WEP is nothing more than a password-access network.  You type in 
  755. the password, and the base station lets you on.  It's both authentication, 
  756. and the encryption key.  Most implementations use 40-bit RC4 encryption 
  757. (completely insecure in today's environment), although some implementations 
  758. have an option for 104-bit RC4.  All users share a single key, which is 
  759. stored in every computer on the 802.11 network.  Hence the security does 
  760. not scale for large networks at all.  And even worse, the key is chosen and 
  761. typed in by the network administrator, which means that the effective key 
  762. length is probably even smaller than 40 bits, regardless of how many bits 
  763. are in the encryption key.
  764.  
  765. Protocols designed in secret, or by closed committees, are the worst.  The 
  766. 802.11 process was technically open, but in practice it was closed.  Anyone 
  767. could go to the committee meanings, if they wanted to pony up the airfare 
  768. and registration fee and spend their time trying to decipher the 802.11 
  769. jargon.  However, you couldn't just grab the standard or read about the 
  770. cryptography on the net.  There was no free, generally available, public 
  771. information.
  772.  
  773. Publishing the protocol allows for these flaws to be discovered, but 
  774. doesn't guarantee that they will be.  The 802.11 protocol is an IEEE 
  775. standard, and has been public since at least 1999, although any researcher 
  776. wanting to read it has to pay the IEEE several hundreds of dollars for a 
  777. copy.  The reason these flaws were not discovered earlier is not because 
  778. they're subtle -- they're not -- but because no one with sufficient 
  779. cryptographic skill had read them earlier.
  780.  
  781. Flaws in these protocols are discovered more or less at random.  The only 
  782. reason a cryptanalysis of WEP was published is that one of the researchers 
  783. became annoyed at the University of California Berkeley.  The University 
  784. was starting to deploy 802.11, but with some annoying usage 
  785. limitations.  Coincidentally, an officemate had just bought a copy of the 
  786. standard for other purposes (nothing to do with security), so they took a 
  787. took at it.  The timing just happened to work out right, and they had a few 
  788. hours to puzzle out the cryptography.
  789.  
  790. Discovering and fixing the flaws is not enough.  There's no reason to 
  791. believe the WEP flaws will be fixed, or that the protocol will be secure 
  792. after they are fixed.  The 802.11 committee has been downplaying the 
  793. vulnerabilities, but it's putting a working group together to investigate 
  794. them.  The 802.11 standard governs hardware devices; upgrades are difficult 
  795. and must be backwards compatible.  Undoubtedly other problems remain, and 
  796. any modification to the WEP will undoubtedly introduce new flaws.  Unless 
  797. they find a competent cryptographer to do the work, and submit the results 
  798. to a rigorous peer review, the cycle will continue.
  799.  
  800. This trend is getting worse, not better.  There are more and more protocols 
  801. being designed to offer more and more security features.  Most of these 
  802. design processes are no more rigorous than the 802.11 process.  Most of 
  803. these processes do not include cryptographic peer-review; some of them are 
  804. done completely in secret.  (Some of the 802.11 people have said things 
  805. like "we're already open," "we don't need to fix our process," "we *did* 
  806. get peer review when we designed the standard, we asked the NSA whether it 
  807. was any good.")  Many of these protocols are much more complex than 
  808. whatever they are replacing, making security flaws even more likely.  If 
  809. these flaws are common now, they are going to be more common in the future.
  810.  
  811. The attacks:
  812. <http://www.isaac.cs.berkeley.edu/isaac/wep-faq.html>
  813.  
  814. Response from the Chair of IEEE 802.11:
  815. <http://slashdot.org/articles/01/02/15/1745204.shtml>
  816.  
  817. An example of 802.11 security marketing:
  818. "Increased Security Through Wired Equivalent Privacy
  819. Wired Equivalent Privacy (WEP), an optional RC4 encryption algorithm, helps 
  820. ensure the security of your data.  Before data are transmitted, they are 
  821. streamed through an RC4 algorithm, an efficient encryption process designed 
  822. for LAN communications.  Additionally, all RangeLAN802 devices are 
  823. authenticated through a challenge-and-response mechanism before being 
  824. allowed network access.  Both wireless and wired LANs are thus fortified 
  825. against eavesdropping and unauthorized access by hackers or other nearby 
  826. 802.11-compliant devices."
  827. <http://www.airlinx.com/rangelan2pccard.htm>
  828.  
  829.  
  830. ** *** ***** ******* *********** *************
  831.  
  832.              Comments from Readers
  833.  
  834.  
  835.  
  836. From: Rebecca Mercuri <mercuri@gradient.cis.upenn.edu>
  837. Subject: Voting in Brazil
  838.  
  839. In your January Crypto-Gram you published a letter from Daniel Balparda de 
  840. Carvalho, a Brazilian who commented favorably on their electronic voting 
  841. system.  The U.S. press touted the Brazilian equipment as something we 
  842. should be emulating.  However, I have heard from numerous Brazilian 
  843. journalists and scientists who have noted difficulties with their 
  844. system.  On my voting Web site <http://www.notablesoftware.com/evote.html> 
  845. I have linked an excellent discussion of this subject by Michael 
  846. Stanton.  The translation "The Importance of Counting Votes" is available 
  847. there, as well as the URL to the Portuguese version as originally 
  848. published.  I have also linked the Web site to the Brazilian Electronic 
  849. Voting Forum maintained by Amilcar Brunazo Filho 
  850. <http://www.votoseguro.org>, which is a key resource on the subject and 
  851. tells "the rest of the story" -- although it is helpful if you can read 
  852. Portuguese.  I am concerned that the side of the Brazilian election that we 
  853. are being shown here
  854. in the US is not fully reflective of the true nature of the matter, and 
  855. intend to continue to publicize other official reports as I receive them.
  856.  
  857.  
  858. From: "Phillip Hallam-Baker" <hallam@ai.mit.edu>
  859. Subject: Codesigning
  860.  
  861. The attacks against Authenticode you print in Crypto-Gram were considered 
  862. in the design.  The purpose of Authenticode is to give at least the same 
  863. level of security as buying shrink wrap software from a store.  Shrink wrap 
  864. software can be compromised, and indeed there are a small number of cases 
  865. of people selling CDs infected with viruses.  Authenticode has already been 
  866. a great success; distributing code through the net could have been a 
  867. disaster on the scale of e-mail viruses.
  868.  
  869. A hacker could probably obtain a certificate if they were persistent 
  870. enough.  But that certificate would be tied to the name of the shell 
  871. company they started for the purpose.  They would not be able to get a 
  872. certificate with the name "Microsoft" or "Blizzard" or any company that was 
  873. well known.
  874.  
  875. If the hackers circulated the private key to any great extent, the 
  876. compromise would soon be known.  The certificate would be revoked and would 
  877. not be accepted by the Authenticode signing service for future code signing 
  878. requests.  Software that had already been signed would still pose a risk, 
  879. but this could be controlled through warnings in the press.
  880.  
  881. In the future it is likely that a higher level of security will be possible 
  882. in enterprise configurations.  Ideally each software installation would be 
  883. referred to a central service for prior approval.  This is not an 
  884. acceptable option for consumer use, of course -- at least not without a 
  885. ready means of bypassing it so that the consumer can write their own code.
  886.  
  887. There is still a risk from program bugs, of course.  But the buffer overrun 
  888. problem cited should be considered a security weakness of C and C++.  There 
  889. have been languages with robust bounds checking on arrays since the 
  890. 1960s.  Unfortunately, bounds checking has only recently arrived in the C 
  891. world in the Java and C# variants.  But it is here now and programmers 
  892. won't have much excuse not to use it.
  893.  
  894.  
  895. ** *** ***** ******* *********** *************
  896.  
  897. CRYPTO-GRAM is a free monthly newsletter providing summaries, analyses, 
  898. insights, and commentaries on computer security and cryptography.
  899.  
  900. To subscribe, visit <http://www.counterpane.com/crypto-gram.html> or send a 
  901. blank message to crypto-gram-subscribe@chaparraltree.com.  To unsubscribe, 
  902. visit <http://www.counterpane.com/unsubform.html>.  Back issues are 
  903. available on <http://www.counterpane.com>.
  904.  
  905. Please feel free to forward CRYPTO-GRAM to colleagues and friends who will 
  906. find it valuable.  Permission is granted to reprint CRYPTO-GRAM, as long as 
  907. it is reprinted in its entirety.
  908.  
  909. CRYPTO-GRAM is written by Bruce Schneier.  Schneier is founder and CTO of 
  910. Counterpane Internet Security Inc., the author of _Secrets and Lies_ and 
  911. _Applied Cryptography_, and an inventor of the Blowfish, Twofish, and 
  912. Yarrow algorithms.  He served on the board of the International Association 
  913. for Cryptologic Research, EPIC, and VTW.  He is a frequent writer and 
  914. lecturer on computer security and cryptography.
  915.  
  916. Counterpane Internet Security, Inc. is a venture-funded company bringing 
  917. innovative managed security solutions to the enterprise.
  918.  
  919. <http://www.counterpane.com/>
  920.  
  921. Copyright (c) 2001 by Counterpane Internet Security, Inc.
  922.  
  923.