home *** CD-ROM | disk | FTP | other *** search
/ Hacker 2 / HACKER2.mdf / virus / virusl2 / virusl2.63 < prev    next >
Text File  |  1995-01-03  |  12KB  |  278 lines

  1. VIRUS-L Digest              Monday, 13 Mar 1989         Volume 2 : Issue 63
  2.  
  3. Today's Topics:
  4. Computer Security Conference in NJ
  5. Espionage
  6. Notarization
  7. Use of Digital Signatures
  8. Use of Digital Signatures
  9. Re: Macs with wills of their own
  10. Merry Christmas... I think :-(
  11.  
  12. ---------------------------------------------------------------------------
  13.  
  14. Date: Fri, 10 Mar 89 09:10:26 EST
  15. From: joes@dorothy.csee.lehigh.edu (Joe Sieczkowski)
  16. Subject: Computer Security Conference in NJ
  17.  
  18. Apparently someone's holding a computer security conference soon.
  19.  
  20. [Taken from IEEE Newsletter, March 1989, Vol. 35, Number 9]
  21. [Reprinted without Permission]
  22.  
  23.    On March 23, 1989 the North Jersey Joint Computers and
  24. Communications Society will meet to hear a talk on "Computer
  25. Security." The speaker will be Dr. Roy S. Freedman of the Polytechnic
  26. University.  This meeting replaces the one planned on March 22nd
  27. entitled "Cryptography" and will broaden the subject to include the
  28. whole field of computer security.
  29.                          ...[Cut Paragraph]...
  30.    ...He [Dr. Freedman] will also discuss how some recent work in
  31. cryptographis systems may thwart computer virus attacks, and how
  32. computer surveillance should be used to assess the "health" of an
  33. installation.
  34.                          ...[Cut Paragraph]...
  35. Time: 8:00 PM, Thursday, March 23, 1989.
  36. Place: ITT Club House, 417 River Road, Nutley, NJ
  37. Further Info: Elliot L. Gruenberg (201)662-0751
  38.  
  39. [End of article]
  40.  
  41. Has anyone heard anything about this conference?
  42. Perhaps its worth attending...
  43.  
  44. Joe
  45.  
  46. ------------------------------
  47.  
  48. Date: Fri, 10 Mar 89 12:49:01 EST
  49. From: joes@dorothy.csee.lehigh.edu (Joe Sieczkowski)
  50. Subject: Espionage
  51.  
  52. All (or almost all) of the viruses/worms/trojans we have seen on the
  53. list have been found because of one of the following:
  54.   (1) An error [Lehigh virus, Internet worm]
  55.   (2) It advertised itself [ping-pong, scores]
  56.   (3) It blatently destroyed something [...(I'm sure you can think of some)..]
  57. Most of which were propably developed and released immediately; ie V1.0
  58. (I guess most of you had experience with V1.0 software packages :-)
  59.  
  60. Picture a group of programmers from firm "A" who wish to see their
  61. competetor's (firm "B") data.  Firm A designs a virus that will place
  62. a very special back-door in a computer system.  After the virus
  63. successfully installs the back-door, it removes itself from the system
  64. leaving no trace.  However, Firm A doesn't release it right away.
  65. They put this very "controlled" virus on their own computer system for
  66. testing.  They watch for symptoms, accumulate statistics, and wait for
  67. their users to have trouble with normal operations.  After six months
  68. or so, when the have all the bugs worked out Firm A manages to have
  69. Firm B's computer infected.  In a certain amount of time (whatever
  70. Firm A's statistics say), Firm A is pretty sure Firm B's computer
  71. has the back door installed.  Firm A then proceeds to steal Firm B's
  72. data through the back-door.
  73.  
  74. You have to start to wonder, if a single person can quickly hack out a
  75. decent virus, what can a company do if they dedicate a team of system
  76. programers to the project.
  77.  
  78. Joe
  79.  
  80. ------------------------------
  81.  
  82. Date:  Fri, 10 Mar 89 21:38 EST
  83. From:  Lambert@DOCKMASTER.ARPA
  84. Subject:  Notarization
  85.  
  86. I would like to reiterate that - cryptographic notarization can be a
  87. strong tool for protecting computer systems from virus attacks.  It is
  88. not the only mechanism required for complete protection.  Other
  89. components of a complete system might include strong memory
  90. management, a "trusted" software base, and security policies and
  91. procedures.  The policies and procedures are actually the most
  92. important in that they are what most of us now rely on.
  93.  
  94. Since the only feedback on my proposal so far has been negative, I
  95. would like to respond to Jeff Ogata's criticism:
  96.  
  97. >....  I'd like
  98. >to remind readers that this scheme has important flaws: namely, the
  99. >encryption program itself can be attacked; and the operating system
  100. >can be attacked (by such as Brain).
  101.  
  102. Wrong.  Many mechanisms can be used to protect the software that might
  103. check a "cryptographically sealed" program.  The simplest is to
  104. restart a computer with the verification software on a disk with the
  105. write protect tab set.  Other schemes are possible and are independent
  106. of the cryptography and data formats.
  107.  
  108. >   ...   It has been pointed out several
  109. >times that if some channel exists whereby these signatures can be
  110. >distributed without corruption, there is no reason why the programs
  111. >themselves could not be distributed by the same channels.
  112.  
  113. I am proposing a hierarchical notarization system.  Only one piece of
  114. information and the verification software, or hardware, must be
  115. delivered to all users.  All further notarization signatures are
  116. delivered with the "sealed" information.  This means that "untrusted"
  117. means can be used for the distribution of the software and the
  118. softwares signature.  If you are interested please read ISO 9594-8
  119. (aka CCITT X.509).
  120.  
  121. >   ...  Such signatures would be just as easily corrupted as the
  122. >programs in question.
  123.  
  124. Wrong.  Read any recent article on public key cryptography.
  125.  
  126. In response to Don Alvarez's comments that:
  127.  
  128. >A standard is ONLY of value if you can PROVE that it can be
  129. >implemented without theoretical weaknesses.  Any cryptographic
  130. >solution includes some black-box which does the magic to check the
  131. >notorizing value, encrypt the password, or whatever.
  132.  
  133. It is interesting to note that public key algorithms are based on
  134. NP-complete algorithms (eg RSA).  In this branch of mathematics, know
  135. as complexity theory, it possible to prove that the problem in the
  136. class NP-complete, but not if a particular problem might be "solved".
  137. In particular, the RSA scheme would be weakened if a major
  138. breakthrough was made in the factoring of numbers.  This is very
  139. unlikely, but not provable.  The RSA algorithm, even with this slight
  140. uncertainty, is considered to be "good".  This is an interesting
  141. topic, but I believe that Don was referring to issues relating to
  142. proving implementations correct.  He is correct that this is desirable
  143. for a specific implementation.  I still maintain that the development
  144. of a software notarization standard is independent of these
  145. considerations.
  146.  
  147. >Unless that black-box is designed into the physical architecture of
  148. >the computer you get NO PROTECTION from it.
  149.  
  150. Yes, but the "black-box" could be software.  The minimum required of
  151. the physical architecture is a reset switch and a disk write protect
  152. mechanism.  I would propose that given a single "trusted" verification
  153. program, a system could be "bootstrapped" so that all installed
  154. software was verified.  It is possible that a "sealed" program might
  155. contain a virus.  This virus would be detectable if it altered any
  156. other "sealed" information.  The source of the virus would then be
  157. directly traceable to the notarization authority, in this case the
  158. issuing software house.
  159.  
  160. Once again, the software notarization does not solve all computer
  161. security problems.  Policies and procedures are still required to
  162. ensure the correct usage of this tool in existing systems.  Future
  163. computing systems could provide more assurances and the verification
  164. "black-box" in hardware.
  165.  
  166. Paul A. Lambert              Motorola GEG, Secure Network Section
  167. Lambert -at docmaster.arpa   8201 E. McDowell
  168. (602) 441-3646               Scottsdale, Az. 85252
  169.  
  170. ------------------------------
  171.  
  172. Date:  Sat, 11 Mar 89 10:48 EST
  173. From:  WHMurray@DOCKMASTER.ARPA
  174. Subject:  Use of Digital Signatures
  175.  
  176. Even in the face of digital signatures
  177. >The operating system and signature-computing program are still
  178. >healthy targets for attack.
  179.  
  180. True.  Digital signatures are not mechanisms for preventing attack.
  181. Rather, they are mechanisms for preserving trust, fixing
  182. accountability, and relieving the innocent.
  183.  
  184. If you corrupt my signature verification mechanism, I can no longer
  185. rely upon it.  However, in the presence and use of such a mechanism, I
  186. had to trust you before you could do that.  If I trust you, you can
  187. always damage me, ONCE.  That does not diminish the value of knowing
  188. that it is truly you (rather than someone pretending to be you) that I
  189. can no longer trust.
  190.  
  191. William Hugh Murray, Fellow, Information System Security, Ernst & Whinney
  192. 2000 National City Center Cleveland, Ohio 44114
  193. 21 Locust Avenue, Suite 2D, New Canaan, Connecticut 06840
  194.  
  195. ------------------------------
  196.  
  197. Date:  Sat, 11 Mar 89 10:32 EST
  198. From:  WHMurray@DOCKMASTER.ARPA
  199. Subject:  Use of Digital Signatures
  200.  
  201. >It has been pointed out several times that if some channel exists
  202. >whereby these signatures can be distributed without corruption,
  203. >there is no reason why the programs themselves could not be
  204. >distributed by the same channels.  One must consider where the
  205. >user needing authentication is going to acquire signatures:
  206. >probably the same place he got the program -- a bulletin board.
  207. >Such signatures would be just as easily corrupted as the programs
  208. >in question.
  209.  
  210. The signature can be distributed with the program.  If you verify it,
  211. it will give you confidence that it has not been corrupted since being
  212. signed.  If you trust the signer, you can trust the code.
  213.  
  214. Of course, you must have a trusted copy of the public key of the
  215. signer.  You may get this from any trusted source (usually signed by
  216. the private key of that source, whose public key you already have and
  217. trust.)
  218.  
  219. You must also have a small trusted space in which to verify the
  220. signature and store the keys.  This will usually be your PC and a
  221. diskette for that purpose.  (We cannot trust the managers of shared
  222. systems for this purpose.)
  223.  
  224. Note that this is not a mechanism for creating trust; it is only a
  225. mechanism for maintaining and distributing trust which already
  226. exists.
  227.  
  228. This does not require any invention or even implementation; an
  229. implementation is already available and its use has been endorsed by
  230. the Internet Activities Board.
  231.  
  232. William Hugh Murray, Fellow, Information System Security, Ernst & Whinney
  233. 2000 National City Center Cleveland, Ohio 44114
  234. 21 Locust Avenue, Suite 2D, New Canaan, Connecticut 06840
  235.  
  236. ------------------------------
  237.  
  238. Date: 9  Mar 89  9:11 +0100
  239. From: Danny Schwendener <macman%ifi.ethz.ch@RELAY.CS.NET>
  240. Subject: Re: Macs with wills of their own
  241.  
  242. >If, when this is happening, there is a small "hand" icon in the upper
  243. >right hand corner of the screen (in the menu bar) then it IS Timbuktu,
  244.  
  245. Note that there are other "foreign screen control" programs on the
  246. marketplace.  One I'm particularly aware of is MoNet, by Juri Munkki
  247. <jmunkki@fingate.bitnet> in Finland. His package does the same, but
  248. does not display a warning on the foreign Mac, like Timbuktu does with
  249. the "eye" or "hand" icons.
  250.  
  251. - -- Danny Schwendener
  252.    ETH Macintosh Support
  253.  
  254. ------------------------------
  255.  
  256. Date:         Sun, 12 Mar 1989 16:07 EST
  257. From:         Grey Fox <xd2w@PURCCVM.BITNET>
  258. Subject:      Merry Christmas... I think :-(
  259.  
  260. Oooh... Nasty christmas exec programs running around... It's an easy
  261. concept to grasp once someone does it... But has anyone thought to
  262. execute the original author of the damn thing? Oh well.. Anyway...
  263.  
  264. Anyone ever think that one reason hackers write viruses is to prove
  265. that it can be done? I have a program that lowercases entire IBM VM
  266. directories... Dangerous to run, but written to prove that it could
  267. be done... And it could probably be hooked to a christmas exec spreader,
  268. or some sort of virus thingy that would corrupt other Exec files in
  269. a directory or a combination of the two... It has the potential to be
  270. devastating. (Which is why I am not releasing it).
  271.                         -Bruce Ide
  272.  
  273. ------------------------------
  274.  
  275. End of VIRUS-L Digest
  276. *********************
  277. Downloaded From P-80 International Information Systems 304-744-2253
  278.