home *** CD-ROM | disk | FTP | other *** search
/ Power Hacker 2003 / Power_Hacker_2003.iso / E-zine / Magazines / crypto-gram / crypto-gram-0008.txt < prev    next >
Encoding:
Text File  |  2002-05-27  |  42.1 KB  |  943 lines

  1.                   CRYPTO-GRAM
  2.  
  3.                 August 15, 2000
  4.  
  5.                by Bruce Schneier
  6.                 Founder and CTO
  7.        Counterpane Internet Security, Inc.
  8.             schneier@counterpane.com
  9.           <http://www.counterpane.com>
  10.  
  11.  
  12. A free monthly newsletter providing summaries, analyses, insights, and 
  13. commentaries on computer security and cryptography.
  14.  
  15. Back issues are available at <http://www.counterpane.com>.  To subscribe or 
  16. unsubscribe, see below.
  17.  
  18.  
  19. Copyright (c) 2000 by Counterpane Internet Security, Inc.
  20.  
  21.  
  22. ** *** ***** ******* *********** *************
  23.  
  24. In this issue:
  25.       Secrets and Lies: Digital Security in a Networked World
  26.       Microsoft Vulnerabilities, Publicity, and Virus-Based Fixes
  27.       News
  28.       Counterpane Internet Security News
  29.       Crypto-Gram Reprints
  30.       European "Crime in Cyberspace" Convention
  31.       The Doghouse:  Authentica
  32.       Bluetooth
  33.       Comments from Readers
  34.  
  35.  
  36. ** *** ***** ******* *********** *************
  37.  
  38.    Secrets and Lies: Digital Security in a Networked World
  39.  
  40.  
  41.  
  42. I've written a new book.
  43.  
  44. I started writing this book in 1997; it was originally due to the publisher 
  45. by April 1998.  I eventually delivered it in April 2000, two years late.  I 
  46. have never before missed a publication deadline: books, articles, or 
  47. essays.  I pride myself on timeliness: A piece of writing is finished when 
  48. it's due, not when it's done.
  49.  
  50. This book was different.  I got two-thirds of the way through the book 
  51. without giving the reader any hope at all.  And it was about then I 
  52. realized that I didn't have the hope to give.  I had reached the 
  53. limitations of what I thought security technology could do.  I had to hide 
  54. the manuscript away for over a year; it was too depressing to work on.
  55.  
  56. I came to security from cryptography, and framed the problem with classical 
  57. cryptography thinking.  Most writings about security come from this 
  58. perspective, and it can be summed up pretty easily: Security threats are to 
  59. be avoided using preventive countermeasures.
  60.  
  61. For decades we have used this approach to computer security.  We draw boxes 
  62. around the different players and lines between them.  We define different 
  63. attackers -- eavesdroppers, impersonators, thieves -- and their 
  64. capabilities.  We use preventive countermeasures like encryption and access 
  65. control to avoid different threats.  If we can avoid the threats, we've 
  66. won. If we can't, we've lost.
  67.  
  68. Imagine my surprise when I learned that the world doesn't work this way.
  69.  
  70. I had my epiphany in April 1999: that security was about risk management, 
  71. that detection and response were just as important as prevention, and that 
  72. reducing the "window of exposure" for an enterprise is security's real 
  73. purpose.  I was finally able to finish the book: offer solutions to the 
  74. problems I posed, a way out of the darkness, hope for the future of 
  75. computer security.
  76.  
  77. "Secrets and Lies" discusses computer security in this context, in words 
  78. that a business audience will understand.  It explains, in my typical 
  79. style, how different security technologies work and how they fail.  It 
  80. discusses the process of security: what the threats are, who the attackers 
  81. are, and how to live in their world.
  82.  
  83. It'll change the way you think about computer security.  I'm very proud of it.
  84.  
  85. Information about the book:
  86. <http://www.counterpane.com/sandl.html>
  87.  
  88. Order the book (at a 20% discount) from Amazon:
  89. <http://www.amazon.com/exec/obidos/ASIN/0471253111/counterpane/>
  90.  
  91. If you use that URL to order the book from Amazon, a portion of the 
  92. purchase price will go to EPIC.
  93.  
  94.  
  95. ** *** ***** ******* *********** *************
  96.  
  97.    Microsoft Vulnerabilities, Publicity, and Virus-Based Fixes
  98.  
  99.  
  100.  
  101. The latest tale of security gaps in Microsoft Corp.'s software is a 
  102. complicated story, and there are a lot of lessons to take away -- so let's 
  103. take it chronologically.
  104.  
  105. On June 27th, Georgi Gunniski discovered a new vulnerability in Internet 
  106. Explorer (4.0 or higher) and Microsoft Access (97 or 2000), running on 
  107. Windows (95, 98, NT 4.0, 2000).  An attacker can compromise a user's system 
  108. by getting the user to read an HTML e-mail message (not an attachment) or 
  109. visit a Web site.
  110.  
  111. This is a serious problem, and has the potential to result in new and 
  112. virulent malware.  But it requires Microsoft Access to be installed on the 
  113. victim's computer, which, while common, is by no means universal.  A virus 
  114. that exploits this vulnerability will not spread as widely as, say, 
  115. Melissa.  In any case, Microsoft published a fix on July 14th, and I urge 
  116. everyone to install it.
  117.  
  118. On July 17th, SANS promulgated an e-mail warning people of the "most 
  119. dangerous flaw found in Windows workstations."  I can't really figure this 
  120. e-mail out; it seems to be primarily a grab for press coverage.  Some of it 
  121. is suspiciously vague: "We developed this exploit further and realized that 
  122. this is one of the most serious exploits of Windows workstations in the 
  123. last several years"  "Developed"?  How?  No one says.  Some of it brags: 
  124. "Microsoft asked us not to release the details until they had a 
  125. fix."  "Release the details"?  But the original Bugtraq posting was pretty 
  126. explanatory, and SANS has not released anything new.
  127.  
  128. Still, the SANS e-mail received a lot more publicity than the Bugtraq 
  129. announcement or the Microsoft patch, so it's hard to complain too much.
  130.  
  131. But the SANS announcement had a much more disturbing section:  "It may be 
  132. possible to fix this vulnerability automatically, via an e-mail without 
  133. asking every user to take action.  The concept is similar to using a 
  134. slightly modified version of a virus to provide immunity against 
  135. infection.  SANS is offering a $500 prize (and a few minutes of fame) to 
  136. the first person who sends us a practical automated solution that companies 
  137. can use, quickly, easily, and (relatively) painlessly to protect all 
  138. vulnerable systems."  (This paragraph is no longer on the Web site, which 
  139. claims that "winning entries have been received.")
  140.  
  141. This is a really, really dumb idea, and we should put a stop to this kind 
  142. of thinking immediately.  Every once in a while someone comes up with the 
  143. idea of using viruses for good.  Writing a virus that exploits a particular 
  144. security vulnerability in order to close that vulnerability sounds 
  145. particularly poetic.
  146.  
  147. Here's why it's such a bad idea.  First, there's no audit trail of the 
  148. patch.  No system administrator wants to say: "Well, I did try to infect 
  149. our systems with a virus to fix the problem, but I don't know if it worked 
  150. in every case."
  151.  
  152. Second, there's no way to test that the virus will work properly on the 
  153. Internet.  Would it clog up mail servers and shut down networks?  Would it 
  154. properly self-destruct when all mail clients were patched?  How would it 
  155. deal with multiple copies of itself?
  156.  
  157. And third, it would be easy to get wrong and hard to recover 
  158. from.  Experimentation, most of it involuntary, proves that viruses are 
  159. very hard to debug successfully.  Some viruses were written to propagate 
  160. harmlessly, but did damage because of bugs in their code.  Intentional 
  161. experimentation proves that in your average office environment, the code 
  162. that successfully patches one machine won't work on another, sometimes with 
  163. fatal results.  Combining the two is fraught with danger.  Every system 
  164. administrator who's ever automated software distribution has had the "I 
  165. just automatically, with the press of a button, destroyed the software on 
  166. hundreds of machines at once!" experience.  And that's with systems that 
  167. you can *stop*; self-propagating systems don't even let you shut them down 
  168. when you find the problem.
  169.  
  170. In any case, the SANS announcement was made even more confusing by the 
  171. announcement of another Microsoft vulnerability at the same time...one that 
  172. I think is even more serious than the one SANS publicized.  (The 
  173. vulnerability was first discovered on July 2nd, but was independently 
  174. discovered and published on Bugtraq on July 18th.)
  175.  
  176. A buffer overflow in Microsoft Outlook or Outlook Express allows an 
  177. attacker to execute arbitrary code on a victim's machine just by sending 
  178. him an e-mail.  In Outlook Express, the victim doesn't even have to open 
  179. the e-mail, or preview it.  All he has to do is download it.  In Outlook, 
  180. he has to read it.
  181.  
  182. That's the bad news.  The good news is that it only is a vulnerability for 
  183. users who have POP or IMAP installed; those using Outlook's default 
  184. corporate configuration are not vulnerable.  (Home users who link to 
  185. commercial ISPs are much more likely to be vulnerable.)  So again, a virus 
  186. that exploits this vulnerability would be dangerous and unpleasant, but 
  187. would not spread unchecked.
  188.  
  189. Microsoft has a fix.  Originally (on July 18th) it required you to upgrade 
  190. your version of Outlook or Outlook Express, but two days later Microsoft 
  191. did the right thing and issued a patch.  (In typical Microsoft fashion, it 
  192. isn't a patch for all versions, although they claim that at the link 
  193. site.  If you're running Outlook Express 4.0, your only option is to 
  194. install the upgrade; the patch for the 4.0 version is "coming soon.")  SANS 
  195. issued another e-mail on July 21st, with more dire warnings: "Please fix 
  196. this before you go home today.  And if you have gone home, go back to the 
  197. office and fix it."  In my opinion, this warning blew the threat completely 
  198. out of proportion, and was irresponsible to send.  SANS made it sound like 
  199. a virus attack already in progress, not a new vulnerability that someday 
  200. might be exploited.  And right on the heels of the previous warning, it got 
  201. lost in the noise.  When I received the second SANS e-mail, I thought it 
  202. was another reminder for the first vulnerability.  I'll bet that many users 
  203. were similarly confused, and ignored it as well.
  204.  
  205. There are several lessons here.
  206.  
  207. 1.  Computer programs have two sorts of vulnerabilities, nicely illustrated 
  208. by these two attacks.  First, they have vulnerabilities connected to the 
  209. basic design of the operating system they run on and the way it chooses to 
  210. interlink programs; the Access attack demonstrates this.  Second, they have 
  211. vulnerabilities based on coding mistakes; the buffer overflow problem is an 
  212. example.
  213.  
  214. 2.  It's not enough to release a patch.  The press often gets this 
  215. wrong.  They think the sequence is: vulnerability publicized, patch 
  216. released, security restored.  In reality, it doesn't work that way.  You 
  217. don't regain security until you install the patch.  Even though both of 
  218. these vulnerabilities have been patched, I predict attack tools that use 
  219. them.  Many users just won't bother installing these patches.  For 
  220. publicizing the two vulnerabilities, SANS is to be commended.
  221.  
  222. 3.  Sensationalizing vulnerabilities will backfire.  Both of these 
  223. vulnerabilities are serious, but neither is monumental.  Calling something 
  224. "the most dangerous flaw" leads people to trivialize other flaws.  I worry 
  225. about the public being completely unable to determine what is 
  226. important.  We've seen viruses that fizzle, and others that run 
  227. rampant.  We've seen vulnerabilities that look serious but don't amount to 
  228. anything, and ones that are trivial and exploited again and again.  SANS 
  229. needs to be a voice of reason, not of hyperbole.
  230.  
  231. 4.  Writing a virus to exploit a vulnerability is a bad idea, even if the 
  232. goal of that virus is to close that vulnerability.  Viruses, by their very 
  233. nature, spread in a chaotic and unchecked manner; good system 
  234. administration is anything but.
  235.  
  236. 5.  There are still lots of serious vulnerabilities in Microsoft products, 
  237. and in the interactions between products, waiting to be discovered.
  238.  
  239. The Access/IE vulnerability:
  240. <http://www.securityfocus.com/bid/1398>
  241. <http://www.computerworld.com/cwi/story/0,1199,NAV47_STO47273,00.html>
  242.  
  243. The SANS announcement:
  244. <http://www.sans.org/newlook/resources/win_flaw.htm>
  245.  
  246. Microsoft's "workaround":
  247. <http://www.microsoft.com/technet/security/bulletin/MS00-049.asp>
  248.  
  249. The Outlook vulnerability:
  250. <http://www.securityfocus.com/bid/1481>
  251.  
  252. Reports on the vulnerability:
  253. <http://www.securityfocus.com/news/62>
  254. <http://www.computerworld.com/cwi/story/0,1199,NAV47_STO47323,00.html>
  255.  
  256. Microsoft's fix:
  257. <http://www.microsoft.com/windows/ie/download/critical/patch9.htm>
  258. <http://www.microsoft.com/technet/security/bulletin/ms00-043.asp>
  259.  
  260. This article originally appeared in:
  261. <http://www.zdnet.com/zdnn/stories/comment/0,5859,2609398,00.html>
  262.  
  263.  
  264. ** *** ***** ******* *********** *************
  265.  
  266.                       News
  267.  
  268.  
  269.  
  270. Java security: trusted security providers.
  271. <http://metalab.unc.edu/javafaq/reports/JCE_1.2.1.html>
  272.  
  273. I had nothing to do with this, but thought it was funny:
  274. <http://segfault.org/story.phtml?id=396f3e5c-0958dfa0>
  275.  
  276. Quantum cryptography and gravity waves:
  277. <http://www.newscientist.com/news/news_224738.html>
  278.  
  279. Snake-oil alert!  Even TISC gets taken once in a while.
  280. <http://tisc.corecom.com/newsletters/213.html>
  281.  
  282. Building the perfect virus.  An interesting and disturbing article:
  283. <http://www.hackernews.com/bufferoverflow/99/nitmar/nitmar1.html>
  284.  
  285. The U.S. announces new crypto regulations:
  286. <http://www.wired.com/news/politics/0,1283,37617,00.html>
  287. White House statements:
  288. <http://cryptome.org/us-crypto-up.htm>
  289.  
  290. Kevin Mitnick teaches social engineering:
  291. <http://www.zdnet.com/zdnn/stories/news/0,4586,2604480,00.html>
  292.  
  293. Password Safe:
  294. <http://www.zdnet.com/sp/stories/column/0,4712,2586895,00.html>
  295.  
  296. If you think cookies are bad, meet Web bugs:
  297. <http://www.ntsecurity.net/Articles/Index.cfm?ArticleID=9543>
  298.  
  299. Meanwhile, Microsoft adds cookie privacy features to Internet Explorer:
  300. <http://www.wired.com/news/business/0,1367,37703,00.html>
  301. They claim to be the first browser to do so, but Netscape has had these 
  302. features for a while:
  303. <http://www.wired.com/news/business/0,1367,37723,00.html>
  304.  
  305. A URL scam.  A Web site in Rumania, paypai.com, was masquerading as 
  306. paypal.com.  The scam was to send PayPal users e-mails asking them to log 
  307. in, with the fake URL in the e-mail message.  The user clicked on the 
  308. e-mail link and got the fake page, which looked like the real page.  Then 
  309. the user entered his username and password, which the fake site stole.
  310. <http://www.zdnet.com/zdnn/stories/news/0,4586,2606152,00.html?chkpt=zdhpnew 
  311. s01>
  312. <http://www.msnbc.com/news/435937.asp>
  313. Then, days after this story broke, people start getting e-mails asking them 
  314. to click on <http://www.paypal.x.com> to see if they'd won a 
  315. sweepstakes.  X.com recently purchased Confinity, the creators of 
  316. PayPal...but who is going to know that?  I thought the X.com e-mail was 
  317. another scam, and I'll bet others did, too.  This is an excellent 
  318. illustration of the problems of lousy authentication on the Internet.
  319.  
  320. Gregory Benford on the future of privacy:
  321. <http://www.wired.com/news/technology/0,1282,37610,00.html>
  322.  
  323. I assume you've all read about the FBI's Carnivore Internet wiretapping 
  324. device.  Here are some essays you may have missed:
  325. <http://www.sfgate.com/cgi-bin/article.cgi?file=/chronicle/archive/2000/07/2 
  326. 1/ED64284.DTL>
  327. <http://www.crypto.com/papers/opentap.html>
  328.  
  329. Review of personal firewalls:
  330. <http://securityportal.com/cover/coverstory20000717.html>
  331.  
  332. A good editorial on the problems with the U.S. electronic signature law:
  333. <http://www.nwfusion.com/columnists/2000/0724works.html>
  334.  
  335. Good article on intrusion-detection systems and the problems of false 
  336. positives:
  337. <http://www.zdnet.com/eweek/stories/general/0,11011,2606343,00.html>
  338.  
  339. Cybercrime and law enforcement: an academic legal paper.  Interesting reading.
  340. PDF:  <http://www.sinrodlaw.com/CyberCrime.pdf>
  341. MS Word format:  <http://www.sinrodlaw.com/cybercrime.doc>
  342.  
  343. Editorial on why computer security is "different" from the rest of IT:
  344. <http://www.zdnet.com/enterprise/stories/main/0,10228,2607345,00.html>
  345.  
  346. "Tangled Web: Tales of Digital Crime from the Shadows of Cyberspace":  an 
  347. excellent book on cybercrime by Richard Power:
  348. <http://www.amazon.com/exec/obidos/ASIN/078972443X/counterpane/>
  349.  
  350. William Friedman filed a patent application for an Enigma-like encryption 
  351. device in 1933.  The Patent Office awarded the patent this month.
  352. <http://www.patents.ibm.com/details?&pn=US06097812__&s_all=1>
  353. It looks like a patent for the M-229, or maybe the M-134a.  It's hard to tell.
  354.  
  355. Draconian cyber-surveillance in the UK:
  356. <http://www.mercurycenter.com/svtech/news/indepth/docs/dg071100.htm>
  357.  
  358. Good article on the liability of programmers who write malware, from Salon:
  359. <http://salon.com/tech/feature/2000/08/07/yoink_napster/index.html>
  360.  
  361. Is the Web in for more attacks?
  362. <http://www.zdnet.com/zdnn/stories/news/0,4586,2612050,00.html>
  363.  
  364. Security vulnerability in Adobe Acrobat.  An attacker could create a pdf 
  365. file that, when viewed, exploits a buffer overflow and runs arbitrary code 
  366. on the victim's machine.  Here's the patch:
  367. <http://www.adobe.com/misc/pdfsecurity.html>
  368. Interesting note on the page:  "There have been reports of fraudulent 
  369. security patches being distributed through e-mail.  Adobe will distribute 
  370. patches only through the Adobe Web site and not by e-mail."  No word, 
  371. though, on how we are supposed to authenticate the Web site.
  372.  
  373. The debate continues on script kiddies:
  374. <http://www.nwfusion.com/news/2000/0727holes.html>
  375.  
  376. Excellent article on non-repudiation:
  377. <http://firstmonday.org/issues/issue5_8/mccullagh/index.html>
  378.  
  379.  
  380. ** *** ***** ******* *********** *************
  381.  
  382.        Counterpane Internet Security News
  383.  
  384.  
  385.  
  386. Forbes profiled Counterpane, Bruce Schneier, and his new book:
  387. <http://www.forbes.com/tool/html/00/jul/0731/feat.htm>
  388.  
  389. The Applied Cryptography Source Code Disk Set can now be exported to any 
  390. country except these seven embargoed nations: Cuba, Iran, Iraq, Libya, 
  391. North Korea, Sudan, and Syria.  For details, visit:
  392. <http://www.counterpane.com/scode.html>
  393.  
  394.  
  395. ** *** ***** ******* *********** *************
  396.  
  397.               Crypto-Gram Reprints
  398.  
  399.  
  400.  
  401. A Hardware DES Cracker:
  402. <http://www.counterpane.com/crypto-gram-9808.html#descracker>
  403.  
  404. Biometrics: Truths and Fictions:
  405. <http://www.counterpane.com/crypto-gram-9808.html#biometrics>
  406.  
  407. Back Orifice 2000:
  408. <http://www.counterpane.com/crypto-gram-9908.html#BackOrifice2000>
  409.  
  410. Web-Based Encrypted E-Mail:
  411. <http://www.counterpane.com/crypto-gram-9908.html#Web-BasedEncryptedE-Mail>
  412.  
  413.  
  414. ** *** ***** ******* *********** *************
  415.  
  416.     European "Crime in Cyberspace" Convention
  417.  
  418.  
  419.  
  420. The Council of Europe recently released a draft of a document called the 
  421. "Draft Convention on Cybercrime." This document is meant as an 
  422. international treaty governing "cybercrime," and attempts to standardize 
  423. laws to make prosecuting hackers easier (some countries have no laws 
  424. specifically governing computer attacks).
  425.  
  426. It's a well-intentioned effort, but one provision has the potential to 
  427. seriously harm security research.  It's the provision that makes attack 
  428. tools illegal.
  429.  
  430. I've talked about this already with respect to similar American laws.  A 
  431. long list of security professionals sent a letter regarding this issue:
  432.  
  433. "We are concerned that some portions of the proposed treaty may 
  434. inadvertently result in criminalizing techniques and software commonly used 
  435. to make computer systems resistant to attack.  Signatory states passing 
  436. legislation to implement the treaty may endanger the security of their 
  437. computer systems, because computer users in those countries will not be 
  438. able to adequately protect their computer systems and the education of 
  439. information protection specialists will be hindered.
  440.  
  441. "Critical to the protection of computer systems and infrastructure is the 
  442. ability to
  443.  
  444.     Test software for weaknesses
  445.     Verify the presence of defects in computer systems
  446.     Exchange vulnerability information
  447.  
  448. "System administrators, researchers, consultants, and companies all 
  449. routinely develop, use, and share software designed to exercise known and 
  450. suspected vulnerabilities.  Academic institutions use these tools to 
  451. educate students and in research to develop improved defenses.  Our 
  452. combined experience suggests that it is impossible to reliably distinguish 
  453. software used in computer crime from that used for these legitimate 
  454. purposes.  In fact, they are often identical.
  455.  
  456. "Currently, the draft treaty as written may be misinterpreted regarding the 
  457. use, distribution, and possession of software that could be used to violate 
  458. the security of computer systems.  We agree that damaging or breaking into 
  459. computer systems is wrong and we unequivocally support laws against such 
  460. inappropriate behavior.  We affirm that a goal of the treaty and resulting 
  461. legislation should be to permit the development and application of good 
  462. security measures.  However, legislation that criminalizes security 
  463. software development, distribution, and use is counter to that goal, as it 
  464. would adversely impact security practitioners, researchers, and educators."
  465.  
  466. The report:
  467. <http://conventions.coe.int/treaty/en/projets/cybercrime.htm>
  468.  
  469. Letter from dozens of security professionals criticizing the report:
  470. <http://www.cerias.purdue.edu/homes/spaf/coe/TREATY_LETTER.html>
  471.  
  472. An essay questioning the report:
  473. <http://securityportal.com/topnews/cybercrime20000719.html>
  474.  
  475.  
  476. ** *** ***** ******* *********** *************
  477.  
  478.             The Doghouse:  Authentica
  479.  
  480.  
  481.  
  482. This is just another company that believes it can secure digital content on 
  483. another user's computer.  Of course it's snake oil, and normally I wouldn't 
  484. bother even listing them.  But they 1) use my name, and 2) profoundly don't 
  485. get it.
  486.  
  487. Question 11 of their FAQ reads:  "How secure is information I've protected 
  488. with PageVault?  According to Bruce Schneier, an encryption expert, it 
  489. would take one trillion dollars worth of computers a trillion years to 
  490. break 128-bit encryption -- the kind used in PageVault.  And, once they had 
  491. accomplished that, they would only have a key for a single page of one 
  492. document.  Now they'd need to do it all over again for each successive page 
  493. of every document."
  494.  
  495. What does breaking the encryption have to do with breaking the 
  496. system?  Haven't these people learned anything from the DeCSS story?
  497.  
  498. The quote is from:
  499. <http://www.authentica.com/products/faq.html#pagevault>
  500.  
  501. The Web site:
  502. <http://www.authentica.com>
  503.  
  504. Why this kind of thing won't work, ever:
  505. <http://www.counterpane.com/crypto-gram-0005.html#TrustedClientSoftware>
  506.  
  507.  
  508. ** *** ***** ******* *********** *************
  509.  
  510.                     Bluetooth
  511.  
  512.  
  513.  
  514. Sometime in the 1950s, various governments realized that you could 
  515. eavesdrop on data-processing information from over a hundred feet away, 
  516. through walls, with a radio receiver.  In the U.S., this was called 
  517. TEMPEST, and preventing TEMPEST emissions in radios, encryption gear, 
  518. computers, etc., was a massive military program.  Civilian computers are 
  519. not TEMPEST shielded, and every once in a while you see a demonstration 
  520. where someone eavesdrops on a CRT from 50 feet away.
  521.  
  522. Soon it will get easier.
  523.  
  524. Bluetooth is a short-range radio communcations protocol that lets pieces of 
  525. computer hardware communicate with each other.  It's an eavesdropper's 
  526. dream.  Eavesdrop from up to 300 feet away with normal equipment, and 
  527. probably a lot further if you try.  Eavesdrop on the CRT and a lot 
  528. more.  Listen as a computer communicates with a scanner, printer, or 
  529. wireless LAN.  Listen as a keyboard communicates with a computer.  (Whose 
  530. password do you want to capture today?)  Is anyone developing a 
  531. Bluetooth-enabled smart card reader?
  532.  
  533. What amazes me is the dearth of information about the security of this 
  534. protocol.  I'm sure someone has thought about it, a team designed some 
  535. security into Bluetooth, and that those designers believe it to be 
  536. secure.  But has anyone reputable examined the protocol?  Is the 
  537. implementation known to be correct?  Are there any programming errors?  If 
  538. Bluetooth is secure, it will be the first time ever that a major protocol 
  539. has been released without any security flaws.  I'm not optimistic.
  540.  
  541. And what about privacy?  Bluetooth devices regularly broadcast a unique 
  542. ID.  Can that be used to track someone's movements?
  543.  
  544. The stampede towards Bluetooth continues unawares.  Expect all sorts of 
  545. vulnerabilities, patches, workarounds, spin control, and the like.  And 
  546. treat Bluetooth as a broadcast protocol, because that's what it is.
  547.  
  548. Bluetooth:
  549. <http://www.bluetooth.com>
  550.  
  551. A list of Bluetooth articles, none of them about security:
  552. <http://www.zdnet.co.uk/news/specials/1999/04/bluetooth/>
  553.  
  554. One mention of security:
  555. <http://www.zdnet.co.uk/news/2000/24/ns-16164.html>
  556.  
  557. An essay about the Bluetooth hype:
  558. <http://www.idg.net/ic_199451_797_9-10000.html>
  559.  
  560. Recent article on TEMPEST:
  561. <http://www.zdnet.com/zdnn/stories/news/0,4586,2612547,00.html>
  562.  
  563.  
  564. ** *** ***** ******* *********** *************
  565.  
  566.              Comments from Readers
  567.  
  568.  
  569.  
  570. From: "Carl Ellison" <cme@acm.org>
  571. Subject: Security of Social Security Numbers
  572.  
  573. The SSN story <http://news.cnet.com/news/0-1005-200-340248.html> misses the 
  574. point.  The fault isn't in release of SSNs.  That's still a problem because 
  575. it facilitates data aggregation, but the identity theft problem is the 
  576. stupidity of companies and agencies that accept information anyone can 
  577. acquire as a means to authenticate someone.
  578.  
  579. The net is making this worse, squared.
  580.  
  581. 1. because of the net, this information is now more widely and easily 
  582. available, making the attacker's job easier.
  583.  
  584. 2. to take advantage of the net, companies want to do their authentication 
  585. on-line.
  586.  
  587. So, is the answer digital signatures and ID certificates?  ID CAs are as 
  588. subject to these two points as any other company.
  589.  
  590. This is a serious problem in the way people do business.
  591.  
  592. The assumptions being challenged here have been on shaky ground for a long 
  593. time (e.g., since the rise of cities).  However, with the speed of change 
  594. due to the Internet, we can see the effects more clearly.
  595.  
  596. If we're going to fix this problem, we need to fix human habits, not 
  597. technology.  It is human habit to believe that names work and that your 
  598. knowledge of someone's past implies that you are that person, etc.  We 
  599. haven't built the human habits to respond to the new truths -- that names 
  600. are not valid identifiers and that everyone in the world will have very 
  601. good knowledge of the past of anyone they choose to access.
  602.  
  603.  
  604. From: "Mat Butler" <winged@voidnet.com>
  605. Subject: Full Disclosure versus hiding of information
  606.  
  607. I read with some interest your thoughts on the New York Times versus John 
  608. Young (the PDF obfuscation scandal), and realized that the ideas presented 
  609. by the "obfuscate sensitive information" crowd are a lot like the same ones 
  610. used by the U.S. government and military when referring to classified 
  611. information -- only those who 'need to know' have access to it.
  612.  
  613. The problem comes in, in the public sector, when it's realized that those 
  614. who "need to know" have not had to submit to a security clearance 
  615. investigation.  This is more pronounced when the people who legitimately 
  616. need access to the information to secure their systems are part of the 
  617. "computer underground," and trade information for favors from their 
  618. acquaintances... and information about security vulnerabilities travels 
  619. fast in such circles.
  620.  
  621. The argument, broken down in simple form:
  622.  
  623. 1) Security vulnerabilities are told to people who need to know -- 
  624. webserver operators, system administrators, etc.
  625.  
  626. 2) Trust of the people who "need to know" cannot be verified, since there's 
  627. no background checks done, and there's no centralized information store 
  628. about all sysadmins anyway.  (There's organizations like SAGE, which 
  629. espouse principles like the SAGE Code of Ethics, but there's no requirement 
  630. that anyone live up to those codifications.)
  631.  
  632. 3) So, essentially, you're giving this information to people you do not 
  633. trust, and cannot validate that anyone else trusts.
  634.  
  635. In addition to this, even when the person who "needs to know" -should- be 
  636. notified, he or she often isn't -- this can be seen in every Windows NT 
  637. installation that hasn't gone through the steps to secure its IIS.  (And, 
  638. surprisingly, very few organizations actually have security notification 
  639. mailing lists for their products -- and even more surprisingly, the 
  640. sysadmins who run or are responsible for those softwares rarely subscribe 
  641. to them.)  So even when the company -is- informed of the vulnerability, 
  642. they often release a patch that's never seen by those who need it.
  643.  
  644. It's better to fling the information far and wide, and get it into as many 
  645. discussion circles/professional organizations/sysadmin professional 
  646. contacts as possible, since it's the only way to ensure that the largest 
  647. number of interested parties can at least know what's out there.  (Now, if 
  648. they choose to not implement the knowledge, I would think that that's 
  649. probably their own, or their company's, responsibility.)
  650.  
  651.  
  652. From: Sean Lambert <seanl@metaip.checkpoint.com>
  653. Subject: Cyber Group Network Corp.
  654.  
  655.  >>From the July 15, 2000 CRYPTO-GRAM:
  656.  
  657.  > The Cyber Group Network Corp claims to have a technology
  658.  > that allows you to locate a stolen computer, remotely retrieve
  659.  > information from it, and the destroy it.  Sounds a bit far fetched.
  660.  > But they take "security by obscurity to new heights:  "According to
  661.  > Nish Kapoor, a spokesperson for The Cyber Group Network, the patent
  662.  > pending technology that makes all this possible is being
  663.  > manufactured and developed at a remote, top-secret location
  664.  > identified only as 'Area 74.'"  Wow.
  665.  > <http://www.newsbytes.com/pubNews/00/151921.html>
  666.  
  667. Most readers will ponder the implications of this tool to users and 
  668. thieves.  How useful would it be?  Would I prefer tracking or meltdown?  If 
  669. I was going to steal it, how would I disable it?
  670.  
  671. I pondered it from another angle: bored hackers with a wireless handheld 
  672. and a GPS.  Could someone walk by your office building and send the 
  673. meltdown command to all of your computers?  Could some random person track 
  674. you wherever you go?  Is it possible that someone would set up a Web site 
  675. where your location (within 5 feet!) is displayed on a map?
  676.  
  677. But don't worry, this tool is being developed in a location so secret that 
  678. Nish Kapoor, a spokesperson for The Cyber Group Network, doesn't even know 
  679. where it is.  That takes all my worries away.
  680.  
  681. Just be careful who you cut off in traffic if you have one of these in your 
  682. laptop.
  683.  
  684.  
  685. From: Markus Kuhn <Markus.Kuhn@cl.cam.ac.uk>
  686. Subject: Re: Security Risks of Unicode
  687.  
  688.  > I don't know if anyone has considered the security implications of this.
  689. [...]
  690.  > - Somebody uses UTF-8 or UTF-16 to encode a conventional character in a
  691.  > novel way to bypass validation checks?
  692.  
  693. Thanks for reminding your readers about the security issues surrounding the 
  694. UTF-8 encoding of Unicode and ISO 10646 (UCS).
  695.  
  696. For some time, this and related issues have been of considerable concern to 
  697. us folks on the linux-utf8 at nl.linux.org mailing list, who try to guide 
  698. and accelerate the eventually inevitable migration of the Unix world from 
  699. ASCII and ISO 8859 to UTF-8 (which the Plan9 operating system has 
  700. demonstrated it successfully almost a decade ago). New UTF-8 decoders 
  701. deployed in for instance GNU glibc 2.2, XFree86 4.0 xterm, and various 
  702. other standard tools have been carefully designed to reject so-called 
  703. overlong UTF-8 sequences as malformed sequences, in order prevent that 
  704. these UTF-8 decoders can be abused by attackers to by-pass critical ASCII 
  705. substring tests that are applied earlier in the processing pipeline.
  706.  
  707. It is still very unfortunate that even the latest Unicode 3.0 standard 
  708. (ISBN 0-201-61633-5) contains at the end of section 3.8 on page 47 the 
  709. following paragraph: "When converting from UTF-8 to a Unicode scalar value, 
  710. implementations do not need to check that the shortest encoding is being 
  711. used. This simplifies the conversion algorithm."
  712.  
  713. This paragraph encourages the fielding of sloppy and dangerous UTF-8 
  714. decoders that will for example convert all of the following five UTF-8 
  715. sequences into a U+000A line-feed control character:
  716.  
  717.    0xc0 0x8A
  718.    0xe0 0x80 0x8A
  719.    0xf0 0x80 0x80 0x8A
  720.    0xf8 0x80 0x80 0x80 0x8A
  721.    0xfc 0x80 0x80 0x80 0x80 0x8A
  722.  
  723. A "safe UTF-8 decoder" should reject them just like malformed sequences for 
  724. two reasons: (1) It helps to debug applications if overlong sequences are 
  725. not treated as valid representations of characters, because this helps to 
  726. spot problems more quickly. (2) Overlong sequences provide alternative 
  727. representations of characters, that could maliciously be used to bypass 
  728. prior ASCII filters. For instance, a 2-byte encoded line feed (LF) would 
  729. not be caught by a line counter that counts only 0x0A bytes, but it would 
  730. still be processed as a line feed by an unsafe UTF-8 decoder later in the 
  731. pipeline.
  732.  
  733. UTF-8 is known to be ASCII compatible, because every existing ASCII file is 
  734. already a correct UTF-8 file and non-ASCII characters do not introduce 
  735. additional occurrences of ASCII bytes. But from a security point of view, 
  736. ASCII compatibility of UTF-8 sequences must also mean that ASCII characters 
  737. are *only* allowed to be represented by ASCII bytes in the range 0x00-0x7F 
  738. and not by any other byte combination. To ensure this often neglected 
  739. aspect of ASCII compatibility, use only "safe UTF-8 decoders" that reject 
  740. overlong UTF-8 sequences for which a shorter encoding exists, for example 
  741. by substituting it with the U+FFFD replacement character.
  742.  
  743. It is not true that the check for overlong UTF-8 sequences would add any 
  744. significant speed penalty or complexity to the UTF-8 decoder, as for 
  745. example my implementation of the decoder found in the XFree86 4.0 xterm 
  746. version illustrates. The key to understanding how to implement a safe UTF-8 
  747. decoder both simply and efficiently lies in realizing that an UTF-8 
  748. sequences is overlong if and only if it contains one of the following one 
  749. or two byte long bit patterns:
  750.  
  751.    1100000x (10xxxxxx)
  752.    11100000 100xxxxx (10xxxxxx)
  753.    11110000 1000xxxx (10xxxxxx 10xxxxxx)
  754.    11111000 10000xxx (10xxxxxx 10xxxxxx 10xxxxxx)
  755.    11111100 100000xx (10xxxxxx 10xxxxxx 10xxxxxx 10xxxxxx)
  756.  
  757. A UTF-8 decoder robustness test file that allows developers to check 
  758. quickly an UTF-8 decoder for its safety is available on
  759.  
  760.    <http://www.cl.cam.ac.uk/~mgk25/ucs/examples/UTF-8-test.txt>
  761.  
  762. For instance, major Web browsers still fail the test in section 4.1.1.
  763.  
  764. More information on UTF-8 under Unix are available on
  765.  
  766.    <http://www.cl.cam.ac.uk/~mgk25/unicode.html>
  767.  
  768.  
  769. From: Curt Sampson <cjs@cynic.net>
  770. Subject: Re: Security Risks of Unicode
  771.  
  772. I have to say I'm rather appalled by your "Security Risks of Unicode" 
  773. article.  You have identified a type of security vulnerability in some 
  774. systems, and pointed out that Unicode may increase the incidence of this 
  775. type of vulnerability, but completely missed the source of the vulnerability.
  776.  
  777. As we've seen from your examples of non-Unicode systems that have 
  778. experienced security failures, these problems do not stem from using any 
  779. particular character set or character set interpretation.  They stem from 
  780. doing what I like to call "validity guessing," rather than true validity 
  781. checking.
  782.  
  783. The key factor in all of these cases is that we have two separate programs 
  784. (the validity checker and the application itself) using two separate 
  785. algorithms to interpret data.  This is what introduces the potential for a 
  786. security breach: if ever the two programs do not interpret a data stream in 
  787. exactly the same way (and this can easily happen if the two programs are 
  788. not maintained by the same person or group), it may become possible to 
  789. convince the application to do something the validator does not want to allow.
  790.  
  791. When it comes to security, guessing just isn't good enough.  This is why, 
  792. when we have parameters from external sources, we use the exec() system 
  793. call to run programs under Unix rather than the system() library 
  794. function.  We don't pass random data to the shell for interpretation 
  795. because we can never be sure how a particular implementation of a 
  796. particular shell on a particular system will interpret it.  (We can't even 
  797. be sure of what shell we're using -- /bin/sh may be any of a number of 
  798. different programs.)
  799.  
  800. As long as we shift the blame for badly designed security systems to 
  801. external standards that are not the source of the problem, we will have 
  802. insecure systems.  Security is something that needs to be built in to 
  803. systems from the beginning, not tacked on with separate programs at the end.
  804.  
  805.  
  806. From: Henry Spencer <henry@spsystems.net>
  807. Subject: Re: Security Risks of Unicode
  808.  
  809. You have a point about potential input-validation attacks in Unicode, given 
  810. the much greater complexity of the character set... but I think you have 
  811. missed a couple of more important points.
  812.  
  813. Trying to analyze the input string for metacharacters, odd delimiters, etc. 
  814. is basically a mistake.  I speak as someone who's written code to do this, 
  815. by the way -- it always smelled like a kludge to me, and now I understand why.
  816.  
  817. First, prepending an input validator to a complex interpreter is a 
  818. fundamentally insecure approach.  Unless you are prepared to impose truly 
  819. severe restrictions on which features of the interpreter are available -- 
  820. in which case, why bother with the interpreter at all? -- the validator 
  821. becomes an attempt to reinvent the interpreter's parser and some of its 
  822. semantic analysis.  This is an inherently error-prone approach, as shown by 
  823. various successful input-validation attacks.  The validator is a complex 
  824. piece of software which must achieve and maintain an exact relationship 
  825. with the interpreter, which is all the more difficult if the interpreter is 
  826. ill-documented (as most complex interpreters are) and constantly changing 
  827. (ditto).
  828.  
  829. The right way -- the *only* right way -- to deal with this problem is to 
  830. insist that such interpreters include a show-only mode ("process this input 
  831. and tell me what it would make you do BUT DON'T DO IT").  This can be 
  832. awkward for interpreters with complex programmability and interactions with 
  833. their environment; it may amount to actually running the interpreter, but 
  834. in a controlled and monitored environment with dummy resources.  There can 
  835. still be bugs -- unintended differences between the show-only mode and the 
  836. real mode -- but if the interpreter is well organized, almost all of the 
  837. show-only work is being done by the real code rather than a cheap 
  838. independently-maintained fake, and there is at least a fighting chance that 
  839. the behaviors will match.
  840.  
  841. (A do-only-safe-things mode is also of interest, but not as satisfactory. 
  842. Definitions of safety may not match, and interpreter bugs are arguably more 
  843. likely to affect the outcome.)
  844.  
  845. Second, less confidently, I have to wonder whether elaborate parsing isn't 
  846. a mistake anyway.  When the context is program talking to program, it would 
  847. be better to define the simplest format possible, so that parsing becomes 
  848. trivial and there is no room for misunderstandings.  This need not imply 
  849. either binary data formats or simple semantics; for example, one can send a 
  850. complex tree structure in prefix or postfix notation, one node per (text) 
  851. line.  Of course, all too often the option isn't available because the 
  852. format is predefined by a 700-page standard, but the possibility is worth 
  853. bearing in mind.
  854.  
  855.  
  856. From: Michael Smith <smithmb@usa.net>
  857. Subject: Re: Security Risks of Unicode
  858.  
  859. Speak of the devil...
  860.  
  861. Apparently, the dangers of Unicode you discussed in the latest Crypto-Gram 
  862. are not far off.  It's already going into use for domain names: 
  863. "Asian-language domain names now available," at 
  864. <http://www.cnn.com/2000/TECH/computing/07/17/asian.domains.idg/index.html>.
  865.  
  866.  
  867. From: Johan Ihren <johani@pdc.kth.se>
  868. Subject: Re: SOAP
  869.  
  870.  > Firewalls have good reasons for blocking protocols like
  871.  > DCOM coming from untrusted sources.  Protocols that sneak
  872.  > them through are not what's wanted.
  873.  
  874. I don't really agree with this statement.  I think tunneling protocols are 
  875. a rather obvious consequence of the faith in firewalls as the right 
  876. solution to both having the cookie and eating it too, as in being connected 
  877. to the Internet, while being safe from its dangers.
  878.  
  879. If the security one hoped to gain from deploying a firewall with the HTTP 
  880. port open is somehow compromised by tunneling other stuff over HTTP then 
  881. the real problem lies in the firewall (or possibly one's faith in its 
  882. abilities), not merely in the other protocol.
  883.  
  884. The point with the firewall is basically that "outside" is dangerous while 
  885. "inside" is presumably insecure.  But it would be too expensive to go 
  886. around securing all machines and services on the inside.  So instead a 
  887. firewall is deployed to ensure that although the stuff on the inside is 
  888. insecure it still won't get compromised by the dangers on the outside.
  889.  
  890. If the firewall doesn't catch "creative" new protocols tunneling on top of 
  891. whatever ports/protocols are open then the firewall was a faulty solution 
  892. providing a dangerous illusion of security.
  893.  
  894. In principle it doesn't really matter whether the protocol is designed in 
  895. Redmond or by anonymous crackers, although in reality stuff from Microsoft 
  896. are likely to get installed on a somewhat larger fraction of machines than 
  897. stuff from other sources.
  898.  
  899. So pointing out the consequences to the designer of one particular 
  900. tunneling protocol is of course fine.  But even at best that won't do more 
  901. than alleviate the pain of knowing that regardless of what ports are closed 
  902. in the firewall, as long as some port servicing a sufficiently complicated 
  903. protocol (like HTTP) is left open it will be possible have unknown 
  904. communication between unknown software on the inside and unknown software 
  905. on the outside with (at best) unknown results.
  906.  
  907. But wasn't that exactly what the firewall was meant to stop?
  908.  
  909. Or, to put this another way: whatever security is provided by a firewall 
  910. isn't improved by a software design rule that forbids tunneling through the 
  911. firewall over other protocols.
  912.  
  913.  
  914. ** *** ***** ******* *********** *************
  915.  
  916. CRYPTO-GRAM is a free monthly newsletter providing summaries, analyses, 
  917. insights, and commentaries on computer security and cryptography.
  918.  
  919. To subscribe, visit <http://www.counterpane.com/crypto-gram.html> or send a 
  920. blank message to crypto-gram-subscribe@chaparraltree.com.  To unsubscribe, 
  921. visit <http://www.counterpane.com/unsubform.html>.  Back issues are 
  922. available on <http://www.counterpane.com>.
  923.  
  924. Please feel free to forward CRYPTO-GRAM to colleagues and friends who will 
  925. find it valuable.  Permission is granted to reprint CRYPTO-GRAM, as long as 
  926. it is reprinted in its entirety.
  927.  
  928. CRYPTO-GRAM is written by Bruce Schneier.  Schneier is founder and CTO of 
  929. Counterpane Internet Security Inc., the author of "Applied Cryptography," 
  930. and an inventor of the Blowfish, Twofish, and Yarrow algorithms.  He served 
  931. on the board of the International Association for Cryptologic Research, 
  932. EPIC, and VTW.  He is a frequent writer and lecturer on computer security 
  933. and cryptography.
  934.  
  935. Counterpane Internet Security, Inc. is a venture-funded company bringing 
  936. innovative managed security solutions to the enterprise.
  937.  
  938. <http://www.counterpane.com/>
  939.  
  940. Copyright (c) 2000 by Counterpane Internet Security, Inc.
  941.  
  942.  
  943.