home *** CD-ROM | disk | FTP | other *** search
/ DP Tool Club 17 / CD_ASCQ_17_101194.iso / vrac / riskunix.zip / RISKS.REI < prev   
Text File  |  1994-09-14  |  57KB  |  1,102 lines

  1. RISKS-LIST: RISKS-FORUM Digest, Summary of messages on UNIX breakins.
  2. THIS FILE IS AVAILABLE FOR FTP FROM CSL.SRI.COM <RISKS>RISKS.REID.
  3.  
  4. ------------------------------------------------------------------------
  5.     
  6. From: reid@decwrl.DEC.COM (Brian Reid)
  7. Date: 16 Sep 1986 1519-PDT (Tuesday)
  8. To: Peter G. Neumann <Neumann@csl.sri.com>   [FOR RISKS]
  9. Subject: Massive UNIX breakins at Stanford
  10. RISKS-LIST: RISKS-FORUM Digest, Tuesday, 16 September 1986  Volume 3 : Issue 56
  11.  
  12.     Lessons learned from a recent rash of Unix computer breakins
  13.  
  14. Introduction
  15.    A number of Unix computers in the San Francisco area have
  16.    recently been plagued with breakins by reasonably talented
  17.    intruders. An analysis of the breakins (verified by a telephone
  18.    conversation with the intruders!) show that the networking
  19.    philosophy offered by Berkeley Unix, combined with the human
  20.    nature of systems programmers, creates an environment in which
  21.    breakins are more likely, and in which the consequences of
  22.    breakins are more dire than they need to be.
  23.  
  24.    People who study the physical security of buildings and military
  25.    bases believe that human frailty is much more likely than
  26.    technology to be at fault when physical breakins occur. It is
  27.    often easier to make friends with the guard, or to notice that he
  28.    likes to watch the Benny Hill show on TV and then wait for that
  29.    show to come on, than to try to climb fences or outwit burglar
  30.    alarms.
  31.  
  32. Summary of Berkeley Unix networking mechanism:
  33.  
  34.    The user-level networking features are built around the
  35.    principles of "remote execution" and "trusted host". For example,
  36.    if you want to copy a file from computer A to computer B, you
  37.    type the command
  38.        rcp A:file B:file
  39.    If you want to copy the file /tmp/xyz from the computer that you
  40.    are now using over to computer C where it will be called
  41.    /usr/spool/breakin, you type the command
  42.        rcp /tmp/xyz C:/usr/spool/breakin
  43.    The decision of whether or not to permit these copy commands is
  44.    based on "permission" files that are stored on computers A, B,
  45.    and C. The first command to copy from A to B will only work if
  46.    you have an account on both of those computers, and the
  47.    permission file stored in your directory on both of those
  48.    computers authorizes this kind of remote access. 
  49.  
  50.    Each "permission file" contains a list of computer names and user
  51.    login names. If the line "score.stanford.edu reid" is in the
  52.    permission file on computer "B", it means that user "reid" on
  53.    computer "score.stanford.edu" is permitted to perform remote
  54.    operations such as rcp, in or out, with the same access
  55.    privileges that user "reid" has on computer B.
  56.  
  57. How the breakins happened.
  58.  
  59.    One of the Stanford campus computers, used primarily as a mail
  60.    gateway between Unix and IBM computers on campus, had a guest
  61.    account with user id "guest" and password "guest". The intruder
  62.    somehow got his hands on this account and guessed the password. 
  63.    There are a number of well-known security holes in early releases
  64.    of Berkeley Unix, many of which are fixed in later releases.
  65.    Because this computer is used as a mail gateway, there was no
  66.    particular incentive to keep it constantly up to date with the
  67.    latest and greatest system release, so it was running an older version
  68.    of the system. The intruder instantly cracked "root" on that
  69.    computer, using the age-old trojan horse trick. (He had noticed
  70.    that the guest account happened to have write permission into a
  71.    certain scratch directory, and he had noticed that under certain
  72.    circumstances, privileged jobs could be tricked into executing
  73.    versions of programs out of that scratch directory instead of out
  74.    of the normal system directories).
  75.  
  76.    Once the intruder cracked "root" on this computer, he was able to
  77.    assume the login identity of everybody who had an account on that
  78.    computer. In particular, he was able to pretend to be user "x" or
  79.    user "y", and in that guise ask for a remote login on other
  80.    computers. Sooner or later he found a [user,remote-computer] pair
  81.    for which there was a permission file on the other end granting
  82.    access, and now he was logged on to another computer. Using the
  83.    same kind of trojan horse tricks, he was able to break into root
  84.    on the new computer, and repeat the process iteratively.
  85.  
  86.    In most cases the intruder left trojan-horse traps behind on
  87.    every computer that he broke into, and in most cases he created
  88.    login accounts for himself on the computers that he broke into.
  89.    Because no records were kept, it is difficult to tell exactly how
  90.    many machines were penetrated, but the number could be as high as
  91.    30 to 60 on the Stanford campus alone. An intruder using a
  92.    similar modus operandi has been reported at other installations.
  93.  
  94. How "human nature" contributed to the problem
  95.  
  96.    The three technological entry points that made this intrusion
  97.    possible were:
  98.  
  99.       * The large number of permission files, with entirely
  100.     too many permissions stored in them, found all over the campus
  101.     computers (and, for that matter, all over the ARPAnet).
  102.  
  103.       * The presence of system directories in which users have write
  104.     permission.
  105.  
  106.       * Very sloppy and undisciplined use of search paths in privileged
  107.         programs and superuser shell scripts.
  108.  
  109.  
  110. Permissions: Berkeley networking mechanism encourages carelessness.
  111.  
  112.    The Berkeley networking mechanism is very very convenient. I use
  113.    it all the time. You want to move a file from one place to
  114.    another? just type "rcp" and it's there. Very fast and very
  115.    efficient, and quite transparent. But sometimes I need to move a
  116.    file to a machine that I don't normally use. I'll log on to that
  117.    machine, quickly create a temporary permission file that lets me
  118.    copy a file to that machine, then break back to my source machine
  119.    and type the copy command. However, until I'm quite certain that
  120.    I am done moving files, I don't want to delete my permission file
  121.    from the remote end or edit that entry out of it. Most of us use
  122.    display editors, and oftentimes these file copies are made to
  123.    remote machines on which the display editors don't always work
  124.    quite the way we want them to, so there is a large nuisance
  125.    factor in running the text editor on the remote end. Therefore
  126.    the effort in removing one entry from a permission file--by
  127.    running the text editor and editing it out--is high enough that
  128.    people don't do it as often as they should. And they don't want
  129.    to *delete* the permission file, because it contains other
  130.    entries that are still valid. So, more often than not, the
  131.    permission files on rarely-used remote computers end up with
  132.    extraneous permissions in them that were installed for a
  133.    one-time-only operation. Since the Berkeley networking commands
  134.    have no means of prompting for a password or asking for the name
  135.    of a temporary permission file, everybody just edits things into
  136.    the permanent permission file. And then, of course, they forget
  137.    to take it out when they are done.
  138.  
  139.  
  140. Write permission in system directories permits trojan horse attacks.
  141.  
  142.    All software development is always behind schedule, and
  143.    programmers are forever looking for ways to do things faster. One
  144.    convenient trick for reducing the pain of releasing new versions
  145.    of some program is to have a directory such as /usr/local/bin or
  146.    /usr/stanford/bin or /usr/new in which new or locally-written
  147.    versions of programs are kept, and asking users to put that
  148.    directory on their search paths. The systems programmers then
  149.    give themselves write access to that directory, so that they can
  150.    intall a new version just by typing "make install" rather than
  151.    taking some longer path involving root permissions. Furthermore,
  152.    it somehow seems more secure to be able to install new software
  153.    without typing the root password. Therefore it is a
  154.    nearly-universal practice on computers used by programmers to
  155.    have program directories in which the development programmers
  156.    have write permission. However, if a user has write permission in
  157.    a system directory, and if an intruder breaks into that user's
  158.    account, then the intruder can trivially break into root by using
  159.    that write permission to install a trojan horse.
  160.  
  161. Search paths: people usually let convenience dominate caution.
  162.  
  163.    Search paths are almost universally misused. For example, many
  164.    people write shell scripts that do not specify an explicit search
  165.    path, which makes them vulnerable to inheriting the wrong path.
  166.    Many people modify the root search path so that it will be
  167.    convenient for systems programmers to use interactively as the 
  168.    superuser, forgetting that the same search path will be used by
  169.    system maintenance scripts run automatically during the night.
  170.    It is so difficult to debug failures that are caused by incorrect
  171.    search paths in automatically-run scripts that a common "repair"
  172.    technique is to put every conceivable directory into the search
  173.    path of automatically-run scripts. Essentially every Unix
  174.    computer I have ever explored has grievous security leaks caused
  175.    by underspecified or overlong search paths for privileged users.
  176.  
  177. Summary conclusion: Wizards cause leaks
  178.  
  179.    The people who are most likely to be the cause of leaks are
  180.    the wizards. When something goes wrong on a remote machine, often
  181.    a call goes in to a wizard for help. The wizard is usually busy
  182.    or in a hurry, and he often is sloppier than he should be with
  183.    operations on the remote machine. The people who are most likely
  184.    to have permission files left behind on stray remote machines are
  185.    the wizards who once offered help on that machine. But, alas,
  186.    these same wizards are the people who are most likely to have
  187.    write access to system directories on their home machines,
  188.    because it seems to be in the nature of wizards to want to
  189.    collect as many permissions as possible for their accounts. Maybe
  190.    that's how they establish what level of wizard that they are. The
  191.    net result is that there is an abnormally high probability that
  192.    when an errant permission file is abused by an intruder, that it
  193.    will lead to the account of somebody who has an unusually large
  194.    collection of permissions on his own machine, thereby making it
  195.    easier to break into root on that machine.
  196.  
  197. Conclusions.
  198.  
  199.    My conclusions from all this are these:
  200.       * Nobody, no matter how important, should have write permission
  201.     into any directory on the system search path. Ever.
  202.  
  203.       * Somebody should carefully re-think the user interface of the
  204.     Berkeley networking mechanisms, to find ways to permit people to
  205.     type passwords as they are needed, rather than requiring them to
  206.     edit new permissions into their permissions files. 
  207.  
  208.       * The "permission file" security access mechanism seems
  209.         fundamentally vulnerable. It would be quite reasonable
  210.     for a system manager to forbid the use of them, or to 
  211.     drastically limit the use of them. Mechanized checking is 
  212.     easy.
  213.  
  214.       * Programmer convenience is the antithesis of security, because
  215.     it is going to become intruder convenience if the programmer's 
  216.     account is ever compromised. This is especially true in
  217.         setting up the search path for the superuser.
  218.  
  219.  
  220.  
  221. Lament
  222.    I mentioned in the introduction that we had talked to the
  223.    intruders on the telephone. To me the most maddening thing about
  224.    this intrusion was not that it happened, but that we were unable
  225.    to convince any authorities that it was a serious problem, and
  226.    could not get the telephone calls traced. At one point an
  227.    intruder spent 2 hours talking on the telephone with a Stanford
  228.    system manager, bragging about how he had done it, but there was
  229.    no way that the call could be traced to locate him. A few days
  230.    later, I sat there and watched the intruder log on to one
  231.    Stanford comptuer, and I watched every keystroke that he typed on
  232.    his keyboard, and I watched him break in to new directories, but
  233.    there was nothing that I could do to catch him because he was
  234.    coming in over the telephone. Naturally as soon as he started to
  235.    do anything untoward I blasted the account that he was using and
  236.    logged him off, but sooner or later new intruders will come
  237.    along, knowing that they will not be caught because what they are
  238.    doing is not considered serious. It isn't necessarily serious,
  239.    but it could be. I don't want to throw such people in jail,
  240.    and I don't want to let them get away either. I just want to
  241.    catch them and shout at them and tell them that they are being
  242.    antisocial.
  243.  
  244. Brian Reid
  245. DEC Western Research and Stanford University
  246.  
  247. ------------------------------
  248.  
  249. From: davy@ee.ecn.purdue.edu (Dave Curry)
  250. To: risks@csl.sri.com
  251. Cc: reid@decwrl.dec.com
  252. Subject: Massive UNIX breakins
  253. Date: Wed, 17 Sep 86 08:01:03 EST
  254. RISKS-LIST: RISKS-FORUM Digest,  Wednesday, 17 Sept 1986  Volume 3 : Issue 58
  255.  
  256. Brian -
  257.  
  258.     I feel for you, I really do.  Breakins can be a real pain in the
  259. neck, aside from being potentially hazardous to your systems.  And, we
  260. too have had trouble convincing the authorities that anything serious
  261. is going on.  (To their credit, they have learned a lot and are much
  262. more responsive now than they were a few years ago.)
  263.  
  264.     I do have a couple of comments though.  Griping about the Berkeley
  265. networking utilities is well and good, and yes, they do have their
  266. problems.  However, I think it really had little to do with the
  267. initial breakins on your system.  It merely compounded an already
  268. exisiting breakin several fold.
  269.  
  270.     Two specific parts of your letter I take exception to:
  271.  
  272.     One of the Stanford campus computers, used primarily as a mail
  273.     gateway between Unix and IBM computers on campus, had a guest
  274.     account with user id "guest" and password "guest". The intruder
  275.     somehow got his hands on this account and guessed the
  276.     password. 
  277.  
  278.     Um, to put it mildly, you were asking for it.  "guest" is probably
  279. the second or third login name I'd guess if I were trying to break
  280. in.  It ranks right up there with "user", "sys", "admin", and so on.
  281. And making the password to "guest" be "guest" is like leaving the
  282. front door wide open.  Berkeley networking had nothing to do with your
  283. initial breakin, leaving an obvious account with an even more obvious
  284. password on your system was the cause of that.
  285.  
  286.     There are a number of well-known security holes in early
  287.     releases of Berkeley Unix, many of which are fixed in later
  288.     releases.  Because this computer is used as a mail gateway,
  289.     there was no particular incentive to keep it constantly up to
  290.     date with the latest and greatest system release, so it was
  291.     running an older version of the system.
  292.  
  293.     Once again, you asked for it.  If you don't plug the holes, someone
  294. will come along and use them.  Again Berkeley networking had nothing to
  295. do with your intruder getting root on your system, that was due purely
  296. to neglect.  Granted, once you're a super-user, the Berkeley networking
  297. scheme enables you to invade many, many accounts on many, many machines.
  298.  
  299.     Don't get me wrong.  I'm not trying to criticize for the sake of
  300. being nasty here, but rather I'm emphasizing the need for enforcing
  301. other good security measures:
  302.  
  303.     1. Unless there's a particularly good reason to have one, take
  304.        all "generic" guest accounts off your system.  Why let
  305.        someone log in without identifying himself?
  306.  
  307.     2. NEVER put an obvious password on a "standard" account.
  308.        This includes "guest" on the guest account, "system" on the
  309.        root account, and so on.
  310.  
  311.        Enforcing this among the users is harder, but not
  312.        impossible.  We have in the past checked all the accounts
  313.        on our machines for stupid passwords, and informed everyone
  314.        whose password we found that they should change it.  As a
  315.        measure of how simple easy passwords make things, we
  316.        "cracked" about 400 accounts out of 10,000 in one overnight
  317.        run of the program, trying about 12 passwords per account.
  318.        Think what we could have done with a sophisticated attack.
  319.  
  320.     3. FIX SECURITY HOLES.  Even on "unused" machines.  It's amazing
  321.        how many UNIX sites have holes wide open that were plugged
  322.        years ago.  I even found a site still running with the 4.2
  323.        distributed sendmail a few months ago...
  324.  
  325.     4. Educate your police and other authorities about what's going
  326.        on.  Invite them to come learn about the computer.  Give
  327.        them an account and some documentation.  The first time we
  328.        had a breakin over dialup (1982 or so), it took us three
  329.        days to convince the police department that we needed the
  330.        calls traced.  Now, they understand what's going on, and
  331.        are much quicker to respond to any security violations we
  332.        deem important enough to bring to their attention.  The
  333.        Dean of Students office is now much more interested in
  334.        handling cases of students breaking in to other students'
  335.        accounts; several years ago their reaction was "so what?".
  336.        This is due primarily to our people making an effort to
  337.        educate them, although I'm sure the increased attention
  338.        computer security has received in the media (the 414's, and
  339.        so on) has had an effect too.
  340.  
  341. --Dave Curry
  342. Purdue University
  343. Engineering Computer Network
  344.  
  345. ------------------------------
  346.  
  347. From: reid@decwrl.DEC.COM (Brian Reid)
  348. Date: 17 Sep 1986 0729-PDT (Wednesday)
  349. To: davy@ee.ecn.purdue.edu (Dave Curry)
  350. Cc: risks@csl.sri.com
  351. Subject: Massive UNIX breakins
  352. RISKS-LIST: RISKS-FORUM Digest,  Wednesday, 17 Sept 1986  Volume 3 : Issue 58
  353.  
  354. The machine on which the initial breakin occurred was one that I didn't
  355. even know existed, and over which no CS department person had any
  356. control at all. The issue here is that a small leak on some
  357. inconsequential machine in the dark corners of campus was allowed to
  358. spread to other machines because of the networking code. Security is
  359. quite good on CSD and EE machines, because they are run by folks who
  360. understand security. But, as this episode showed, that wasn't quite good
  361. enough.
  362.  
  363. ------------------------------
  364.  
  365. Date: Thu, 18 Sep 86 09:12:59 cdt
  366. From: "Scott E. Preece" <preece%ccvaxa@GSWD-VMS.ARPA>
  367. To: RISKS@CSL.SRI.COM
  368. Subject: Re: Massive UNIX breakins at Stanford
  369. RISKS-LIST: RISKS-FORUM Digest, Saturday, 20 September 1986 Volume 3 : Issue 60
  370.  
  371. > From: reid@decwrl.DEC.COM (Brian Reid) The machine on which the initial
  372. > breakin occurred was one that I didn't even know existed, and over
  373. > which no CS department person had any control at all. The issue here is
  374. > that a small leak on some inconsequential machine in the dark corners
  375. > of campus was allowed to spread to other machines because of the
  376. > networking code. Security is quite good on CSD and EE machines, because
  377. > they are run by folks who understand security. But, as this episode
  378. > showed, that wasn't quite good enough.
  379. ----------
  380.  
  381. No you're still blaming the networking code for something it's not supposed
  382. to do.  The fault lies in allowing an uncontrolled machine to have full
  383. access to the network.  The NCSC approach to networking has been just that:
  384. you can't certify networking code as secure, you can only certify a network
  385. of machines AS A SINGLE SYSTEM.  That's pretty much the approach of the
  386. Berkeley code, with some grafted on protections because there are real-world
  387. situations where you have to have some less-controlled machines with
  388. restricted access.  The addition of NFS makes the single-system model even
  389. more necessary.
  390.  
  391. scott preece, gould/csd - urbana, uucp:    ihnp4!uiucdcs!ccvaxa!preece
  392.  
  393. ------------------------------
  394.  
  395. Date: Mon, 22 Sep 86 11:04:16 EDT
  396. To: RISKS FORUM    (Peter G. Neumann -- Coordinator) <RISKS@CSL.SRI.COM>
  397. Subject: Massive UNIX breakins at Stanford
  398. From: Jerome H. Saltzer <Saltzer@ATHENA.MIT.EDU>
  399. RISKS-LIST: RISKS-FORUM Digest,  Monday, 22 September 1986  Volume 3 : Issue 62
  400.  
  401. In RISKS-3.58, Dave Curry gently chastises Brian Reid:
  402.  
  403. > . . . you asked for it. . . Berkeley networking had nothing to
  404. > do with your intruder getting root on your system, that was due purely
  405. > to neglect.  Granted, once you're a super-user, the Berkeley networking
  406. > scheme enables you to invade many, many accounts on many, many machines.
  407.  
  408. And in RISKS-3.59, Scott Preece picks up the same theme, suggesting that
  409. Stanford failed by not looking at the problem as one of network security,
  410. and, in the light of use of Berkeley software, not enforcing a no-attachment
  411. rule for machines that don't batten down the hatches.
  412.  
  413. These two technically- and policy-based responses might be more tenable if
  414. the problem had occurred at a military base.  But a university is a
  415. different environment, and those differences shed some light on environments
  416. that will soon begin to emerge in typical commercial and networked home
  417. computing settings.  And even on military bases.
  418.  
  419. There are two characteristics of the Stanford situation that
  420. RISK-observers should keep in mind:
  421.  
  422.      1.  Choice of operating system software is made on many factors,
  423. not just the quality of the network security features.  A university
  424. has a lot of reasons for choosing BSD 4.2.  Having made that choice,
  425. the Berkeley network code, complete with its casual approach to
  426. network security, usually follows because the cost of changing it is
  427. high and, as Brian noted, its convenience is also high.
  428.  
  429.      2.  It is the nature of a university to allow individuals to do
  430. their own thing.  So insisting that every machine attached to a
  431. network must run a certifably secure-from-penetration configuration
  432. is counter-strategic.  And on a campus where there may be 2000
  433. privately administered Sun III's, MicroVAX-II's, and PC RT's all
  434. running BSD 4.2, it is so impractical as to be amusing to hear it
  435. proposed.  Even the military sites are going to discover soon that
  436. configuration control achieved by physical control of every network
  437. host is harder than it looks in a world of engineering workstations.
  438.  
  439. Brian's comments are very thoughtful and thought-provoking.  He describes
  440. expected responses of human beings to typical current-day operating system
  441. designs.  The observations he makes can't be dismissed so easily.
  442.  
  443.                     Jerry Saltzer
  444.  
  445. ------------------------------
  446.  
  447. Date: Mon, 22 Sep 1986  23:03 EDT
  448. From: Rob Austein <SRA@XX.LCS.MIT.EDU>
  449. To:   RISKS@CSL.SRI.COM
  450. Subject: Massive UNIX breakins at Stanford
  451. RISKS-LIST: RISKS-FORUM Digest,  Monday, 22 September 1986  Volume 3 : Issue 62
  452.  
  453. I have to take issue with Scott Preece's statement that "the fault
  454. lies in allowing an uncontrolled machine to have full access to the
  455. network".  This may be a valid approach on a small isolated network or
  456. in the military, but it fails horribly in the world that the rest of
  457. us have to live in.  For example, take a person (me) who is
  458. (theoreticly) responsible for what passes for security on up to half a
  459. dozen mainframes at MIT (exact number varies).  Does he have any
  460. control over what machines are put onto the network even across the
  461. street on the MIT main campus?  Hollow laugh.  Let alone machines at
  462. Berkeley or (to use our favorite local example) the Banana Junior
  463. 6000s belonging to high school students in Sunnyvale, California.
  464.  
  465. As computer networks come into wider use in the private sector, this
  466. problem will get worse, not better.  I'm waiting to see when AT&T
  467. starts offering a long haul packet switched network as common carrier.
  468.  
  469. Rule of thumb: The net is intrinsicly insecure.  There's just too much
  470. cable out there to police it all.  How much knowledge does it take to
  471. tap into an ethernet?  How much money?  I'd imagine that anybody with
  472. a BS from a good technical school could do it in a week or so for
  473. under $5000 if she set her mind to it.
  474.  
  475. As for NFS... you are arguing my case for me.  The NFS approach to
  476. security seems bankrupt for just this reason.  Same conceptual bug,
  477. NFS simply agravates it by making heavier use of the trusted net
  478. assumption.
  479.  
  480. Elsewhere in this same issue of RISKS there was some discussion about
  481. the dangers of transporting passwords over the net (by somebody other
  482. than Scott, I forget who).  Right.  It's a problem, but it needn't be.
  483. Passwords can be tranmitted via public key encryption or some other
  484. means.  The fact that most passwords are currently transmitted in
  485. plaintext is an implementation problem, not a fundamental design
  486. issue.
  487.  
  488. A final comment and I'll shut up.  With all this talk about security
  489. it is important to keep in mind the adage "if it ain't broken, don't
  490. fix it".  Case in point.  We've been running ITS (which has to be one
  491. of the -least- secure operating systems ever written) for something
  492. like two decades now.  We have surprisingly few problems with breakins
  493. on ITS.  Seems that leaving out all the security code made it a very
  494. boring proposition to break in, so almost nobody bothers (either that
  495. or they are all scared off when they realize that the "command
  496. processor" is an assembly language debugger ... can't imagine why).
  497. Worth thinking about.  The price paid for security may not be obvious.
  498.  
  499. --Rob Austein <SRA@XX.LCS.MIT.EDU>
  500.  
  501. ------------------------------
  502.  
  503. Date: Mon 22 Sep 86 11:07:04-PDT
  504. From: Andy Freeman <ANDY@Sushi.Stanford.EDU>
  505. Subject: Massive UNIX breakins at Stanford 
  506. To: RISKS@CSL.SRI.COM, preece%ccvaxa@GSWD-VMS.ARPA
  507. RISKS-LIST: RISKS-FORUM Digest,  Monday, 22 September 1986  Volume 3 : Issue 62
  508.  
  509. Scott E. Preece <preece%ccvaxa@GSWD-VMS.ARPA> writes in RISKS-3.60:
  510.  
  511.     reid@decwrl.DEC.COM (Brian Reid) writes:
  512.     The issue here is that a small leak on some [unknown]
  513.     inconsequential machine in the dark corners of campus was
  514.     allowed to spread to other machines because of the networking code.
  515.  
  516.     No, you're still blaming the networking code for something it's not
  517.     supposed to do.  The fault lies in allowing an uncontrolled machine to
  518.     have full access to the network.  The NCSC approach to networking has
  519.     been just that: you can't certify networking code as secure, you can
  520.     only certify a network of machines AS A SINGLE SYSTEM.  That's pretty
  521.     much the approach of the Berkeley code, with some grafted on
  522.     protections because there are real-world situations where you have to
  523.     have some less-controlled machines with restricted access.  The
  524.     addition of NFS makes the single-system model even more necessary.
  525.  
  526. Then NCSC certification means nothing in many (most?) situations.  A
  527. lot of networks cross adminstrative boundaries.  (The exceptions are
  528. small companies and military installations.)  Even in those that
  529. seemingly don't, phone access is often necessary.
  530.  
  531. Network access should be as secure as phone access.  Exceptions may
  532. choose to disable this protection but many of us won't.  (If Brian
  533. didn't know about the insecure machine, it wouldn't have had a valid
  534. password to access his machine.  He'd also have been able to choose
  535. what kind of access it had.)  The only additional problem that
  536. networks pose is the ability to physically disrupt other's
  537. communication.
  538.  
  539. -andy             [There is some redundancy in these contributions, 
  540.                    but each makes some novel points.  It is better
  541.                    for you to read selectively than for me to edit. PGN]
  542.  
  543. ------------------------------
  544.  
  545. Date: 22 Sep 1986 16:24-CST
  546. From: "Scott E. Preece" <preece%mycroft@GSWD-VMS.ARPA>
  547. Subject: Massive UNIX breakins at Stanford (RISKS-3.60)
  548. To: ANDY@SUSHI.STANFORD.EDU, RISKS%CSL.SRI.COM@CSNET-RELAY.ARPA
  549. RISKS-LIST: RISKS-FORUM Digest,  Monday, 22 September 1986  Volume 3 : Issue 62
  550.  
  551.     Andy Freeman writes [in response to my promoting the view
  552.     of a network as a single system]:
  553.     
  554. >       Then NCSC certification means nothing in many (most?) situations.
  555. --------
  556.  
  557. Well, most sites are NOT required to have certified systems (yet?). If they
  558. were, they wouldn't be allowed to have non-complying systems.  The view as a
  559. single system makes the requirements of the security model feasible.  You
  560. can't have anything in the network that isn't part of your trusted computing
  561. base.  This seems to be an essential assumption.  If you can't trust the
  562. code running on another machine on your ethernet, then you can't believe
  563. that it is the machine it says it is, which violates the most basic
  564. principles of the NCSC model. (IMMEDIATE DISCLAIMER: I am not part of the
  565. group working on secure operating systems at Gould; my knowledge of the area
  566. is superficial, but I think it's also correct.)  
  567.                    [NOTE: The word "NOT" in the first line of this paragraph
  568.                     was interpolated by PGN as the presumed intended meaning.]
  569.  
  570. --------
  571.         Network access should be as secure as phone access.  Exceptions may
  572.         choose to disable this protection but many of us won't.  (If Brian
  573.         didn't know about the insecure machine, it wouldn't have had a valid
  574.         password to access his machine.  He'd also have been able to choose
  575.         what kind of access it had.)  The only additional problem that
  576.         networks pose is the ability to physically disrupt other's
  577.         communication.
  578. --------
  579.  
  580. Absolutely, network access should be as secure as phone access,
  581. IF YOU CHOOSE TO WORK IN THAT MODE.  Our links to the outside
  582. world are as tightly restricted as our dialins.  The Berkeley
  583. networking software is set up to support a much more integrated
  584. kind of network, where the network is treated as a single system.
  585. For our development environment that is much more effective.
  586. You should never allow that kind of access to a machine you don't
  587. control.  Never.  My interpretation of the original note was that
  588. the author's net contained machines with trusted-host access
  589. which should not have had such access; I contend that that
  590. represents NOT a failing of the software, but a failing of the
  591. administration of the network.
  592.  
  593. scott preece
  594. gould/csd - urbana, uucp:    ihnp4!uiucdcs!ccvaxa!preece
  595.  
  596. ------------------------------
  597.  
  598. Date: Tue, 23 Sep 86 09:16:21 cdt
  599. From: "Scott E. Preece" <preece%ccvaxa@GSWD-VMS.ARPA>
  600. To: RISKS@CSL.SRI.COM
  601. Subject: Massive UNIX breakins at Stanford
  602. RISKS-LIST: RISKS-FORUM Digest Wednesday, 24 September 1986 Volume 3 : Issue 63
  603.  
  604.    [This was an addendum to Scott's contribution to RISKS-3.61.  PGN]
  605.  
  606. I went back and reviewed Brian Reid's initial posting and found myself more
  607. in agreement than disagreement.  I agree that the Berkeley approach offers
  608. the unwary added opportunities to shoot themselves in the foot and that
  609. local administrators should be as careful of .rhosts files as they are of
  610. files that are setuid root; they should be purged or justified regularly.
  611.  
  612. I also agree that it should be possible for the system administrator to turn
  613. off the .rhosts capability entirely, which currently can only be done in the
  614. source code and that it would be a good idea to support password checks (as
  615. a configuration option) on rcp and all the other remote services.
  616.  
  617. scott preece, gould/csd - urbana, uucp:    ihnp4!uiucdcs!ccvaxa!preece
  618.  
  619. ------------------------------
  620.  
  621. Date: Tue, 23 Sep 86 08:41:29 cdt
  622. From: "Scott E. Preece" <preece%ccvaxa@GSWD-VMS.ARPA>
  623. To: RISKS@CSL.SRI.COM
  624. Subject: Re: Massive UNIX breakins at Stanford
  625. RISKS-LIST: RISKS-FORUM Digest Wednesday, 24 September 1986 Volume 3 : Issue 63
  626.  
  627.   > From: Rob Austein <SRA@XX.LCS.MIT.EDU>
  628.  
  629.   > I have to take issue with Scott Preece's statement that "the fault lies
  630.   > in allowing an uncontrolled machine to have full access to the network"...
  631.  
  632. I stand by what I said, with the important proviso that you notice the word
  633. "full" in the quote.  I took the description in the initial note to mean
  634. that the network granted trusted access to all machines on the net.  The
  635. Berkeley networking code allows the system administrator for each machine to
  636. specify what other hosts on the network are to be treated as trusted and
  637. which are not.  The original posting spoke of people on another machine
  638. masquerading as different users on other machines; that is only possible if
  639. the (untrustworthy) machine is in your hosts.equiv file, so that UIDs are
  640. equivalenced for connections from that machine.  If you allow trusted access
  641. to a machine you don't control, you get what you deserve.
  642.  
  643. Also note that by "the network" I was speaking only of machines intimately
  644. connected by ethernet or other networking using the Berkeley networking
  645. code, not UUCP or telephone connections to which normal login and password
  646. checks apply.
  647.  
  648. The description in the original note STILL sounds to me like failure of
  649. administration rather than failure of the networking code.
  650.  
  651. scott preece
  652.  
  653.     [OK.  Enough on that.  The deeper issue is that most operating
  654.      systems are so deeply flawed that you are ALWAYS at risk.  Some
  655.      tentative reports of Trojan horses discovered in RACF/ACF2 systems
  656.      in Europe are awaiting details and submission to RISKS.  But their
  657.      existence should come as no surprise.  Any use of such a system in
  658.      a hostile environment could be considered a failure of administration.
  659.      But it is also a shortcoming of the system itself...  PGN]
  660.  
  661. ------------------------------
  662.  
  663. Date: Mon 22 Sep 86 17:09:27-PDT
  664. From: Andy Freeman <ANDY@SUSHI.STANFORD.EDU>
  665. Subject: UNIX and network security again
  666. To: preece%mycroft@GSWD-VMS.ARPA
  667. cc: RISKS%CSL.SRI.COM@CSNET-RELAY.ARPA
  668. RISKS-LIST: RISKS-FORUM Digest Wednesday, 25 September 1986 Volume 3 : Issue 65
  669.  
  670. preece%mycroft@gswd-vms.ARPA (Scott E. Preece) writes:
  671.  
  672.     If you can't trust the code running on another machine on your
  673.     ethernet, then you can't believe that it is the machine it says it is,
  674.     which violates the most basic principles of the NCSC model.
  675.  
  676. That's why electronic signatures are a good thing.
  677.  
  678.     I wrote (andy@sushi):
  679.     >   Then NCSC certification means nothing in many (most?) situations.
  680.  
  681.     Well, most sites are required to have certified systems (yet?). If
  682.     they were, they wouldn't be allowed to have non-complying systems.
  683.  
  684. The designers of the Ford Pinto were told by the US DOT to use $x as a
  685. cost-benefit tradeoff point for rear end collisions.  Ford was still
  686. liable.  I'd be surprised if NCSC certification protected a company
  687. from liability.  (In other words, being right can be more important
  688. than complying.)
  689.  
  690.        [This case was cited again by Peter Browne (from old Ralph Nader
  691.         materials?), at a Conference on Risk Analysis at NBS 15 September
  692.         1986:  Ford estimated that the Pinto gas tank would take $11 each to
  693.         fix in 400,000 cars, totalling $4.4M.  They estimated 6 people might
  694.         be killed as a result, at $400,000 each (the going rate for lawsuits
  695.         at the time?), totalling $2.4M.  PGN]
  696.  
  697.     Absolutely, network access should be as secure as phone access, IF YOU
  698.     CHOOSE TO WORK IN THAT MODE.  Our links to the outside world are as
  699.     tightly restricted as our dialins.  The Berkeley networking software
  700.     is set up to support a much more integrated kind of network, where the
  701.     network is treated as a single system.  For our development
  702.     environment that is much more effective.  You should never allow that
  703.     kind of access to a machine you don't control.  Never.  My
  704.     interpretation of the original note was that the author's net
  705.     contained machines with trusted-host access which should not have had
  706.     such access; I contend that that represents NOT a failing of the
  707.     software, but a failing of the administration of the network.
  708.  
  709. My interpretation of Brian's original message is that he didn't have a
  710. choice; Berkeley network software trusts hosts on the local net.  If
  711. that's true, then the administrators didn't have a chance to fail; the
  712. software's designers had done it for them.  (I repeated all of Scott's
  713. paragraph because I agree with most of what he had to say.)
  714.  
  715. -andy
  716.  
  717.     [I think the implications are clear.  The network software is weak.  
  718.      Administrators are often unaware of the risks.  Not all hosts are
  719.      trustworthy.  The world is full of exciting challenges for attackers.  
  720.      All sorts of unrealistic simplifying assumptions are generally made.  
  721.      Passwords are typically stored or transmitted in the clear and easily
  722.      readable or obtained -- or else commonly known.  Encryption is still
  723.      vulnerable if the keys can be compromised (flawed key distribution,
  724.      unprotected or subject to bribable couriers) or if the algorithm is 
  725.      weak.  There are lots of equally devastating additional vulnerabilities
  726.      waiting to be exercised, particularly in vanilla UNIX systems and 
  727.      networks thereof.  Remember all of our previous discussions about not
  728.      trying to put the blame in ONE PLACE.  PGN]
  729.  
  730. ------------------------------
  731.  
  732. From: reid@decwrl.DEC.COM (Brian Reid)
  733. Date: 25 Sep 1986 0014-PDT (Thursday)
  734. To: risks@sri-csl.ARPA
  735. Reply-To: Reid@sonora.DEC.COM
  736. Subject: Follow-up on Stanford breakins: PLEASE LISTEN THIS TIME!
  737. RISKS-LIST: RISKS-FORUM Digest Thursday, 25 September 1986  Volume 3 : Issue 66
  738.  
  739.    "What experience and history teach is that people have never learned
  740.     anything from history, or acted upon principles deduced from it."
  741.         -- Georg Hegel, 1832
  742.  
  743. Since so many of you are throwing insults and sneers in my direction, I feel
  744. that I ought to respond. I am startled by how many of you did not understand
  745. my breakin message at all, and in your haste to condemn me for "asking for
  746. it" you completely misunderstood what I was telling you, and why.
  747.  
  748. I'm going to be a bit wordy here, but I can justify it on two counts. First,
  749. I claim that this topic is absolutely central to the core purpose of RISKS (I
  750. will support that statement in a bit). Second, I would like to take another
  751. crack at making you understand what the problem is. I can't remember the
  752. names, but all of you people from military bases and secure installations who
  753. coughed about how it was a network administration failure are completely
  754. missing the point. This is a "risks of technology" issue, pure and simple.
  755.  
  756. As an aside, I should say that I am not the system manager of any of the
  757. systems that was broken into, and that I do not control the actions of any
  758. of the users of any of the computers. Therefore under no possible explanation
  759. can this be "my fault". My role is that I helped to track the intruders down,
  760. and, more importantly, that I wrote about it.
  761.  
  762. I am guessing that most of you are college graduates. That means that you
  763. once were at a college. Allow me to remind you that people do not need badges
  764. to get into buildings. There are not guards at the door. There are a large
  765. number of public buildings to which doors are not even locked. There is not a
  766. fence around the campus, and there are not guard dogs patrolling the
  767. perimeter.
  768.  
  769. The university is an open, somewhat unregulated place whose purpose is the
  770. creation and exchange of ideas. Freedom is paramount. Not just academic
  771. freedom, but physical freedom. People must be able to walk where they need to
  772. walk, to see what they need to see, to touch what they need to touch.
  773. Obviously some parts of the university need to be protected from some people,
  774. so some of the doors will be locked. But the Stanford campus has 200
  775. buildings on it, and I am free to walk into almost any of them any time that
  776. I want. More to the point, *you* are also free to walk into any of them.
  777.  
  778. Now let us suppose that I am walking by the Linguistics building and I notice
  779. that there is a teenager taking books out of the building and putting them in
  780. his car, and that after I watch for a short while, I conclude that he is not
  781. the owner of the books. I will have no trouble convincing any policeman that
  782. the teenager is committing a crime. More important, if this teenager has had
  783. anything resembling a normal upbringing in our culture, I will have no
  784. trouble convincing the teenager that he is committing a crime. Part of the
  785. training that we receive as citizens in our society is a training in what is
  786. acceptable public behavior and what is not. The books were not locked up, the
  787. doors to the library were not locked, but in general people do not run in and
  788. steal all of the books.
  789.  
  790. Or let me suppose instead that I am a reporter for the Daily News. I have a
  791. desk in a huge room full of desks. Most of the desks are empty because the
  792. other reporters are out on a story. You've seen scenes like this in the
  793. movies. It is rare in small towns to find those newsrooms locked. Here in
  794. Palo Alto I can walk out of my office, walk over to the offices of the Times
  795. Tribune a few blocks away, walk in to the newsroom, and sit down at any of
  796. those desks without being challenged or stopped. There is no guard at the
  797. door, and the door is not locked. There are 50,000 people in my city, and
  798. since I have lived here not one of them has walked into the newsroom and
  799. started destroying or stealing anything, even though it is not protected.
  800. Why not? Because the rules for correct behavior in our society, which are
  801. taught to every child, include the concept of private space, private
  802. property, and things that belong to other people. My 3-year-old daughter
  803. understands perfectly well that she is not to walk into neighbors' houses
  804. without ringing the doorbell first, though she doesn't quite understand why.
  805.  
  806. People's training in correct social behavior is incredibly strong, even
  807. among "criminals". Murderers are not likely to be litterbugs. Just because
  808. somebody has violated one taboo does not mean that he will immediately and
  809. systematically break all of them.
  810.  
  811. In some places, however, society breaks down and force must be used. In the
  812. Washington Square area of New York, for example, near NYU, you must lock
  813. everything or it will be stolen.  At Guantanamo you must have guards or the
  814. Cubans will come take things. But in Palo Alto, and in Kansas and in Nebraska
  815. and Wisconsin and rural Delaware and in thousands of other places, you do not
  816. need to have guards and things do not get stolen.
  817.  
  818. I'm not sure what people on military bases use computer networks for, but
  819. here in the research world we use computer networks as the building blocks of
  820. electronic communities, as the hallways of the electronic workplace. Many of
  821. us spend our time building network communities, and many of us spend our time
  822. developing the technology that we and others will use to build network
  823. communities. We are exploring, building, studying, and teaching in an
  824. electronic world. And naturally each of us builds an electronic community
  825. that mirrors the ordinary community that we live in. Networks in the Pentagon
  826. are built by people who are accustomed to seeing soldiers with guns standing
  827. in the hallway. Networks at Stanford are built by people who don't get out of
  828. bed until 6 in the evening and who ride unicycles in the hallways.
  829.  
  830. Every now and then we get an intruder in our electronic world, and it
  831. surprises us because the intruder does not share our sense of societal
  832. responsibilities. Perhaps if Stanford were a military base we would simply
  833. shoot the intruder and be done with it, but that is not our way of doing
  834. things. We have two problems. One is immediate--how to stop him, and how
  835. to stop people like him. Another is very long-term: how to make him and his
  836. society understand that this is aberrant behavior.
  837.  
  838. The result of all of this is that we cannot, with 1986 technology, build
  839. computer networks that are as free and open as our buildings, and therefore
  840. we cannot build the kind of electronic community that we would like.
  841.  
  842. I promised you that I would justify what this all has to do with RISKS. 
  843.  
  844. We are developing technologies, and other people are using those
  845. technologies. Sometimes other people misuse them. Misuse of technology is one
  846. of the primary risks of that technology to society. When you are engineering
  847. something that will be used by the public, it is not good enough for you to
  848. engineer it so that if it is used properly it will not hurt anybody. You must
  849. also engineer it so that if it is used *improperly* it will not hurt anybody.
  850. I want to avoid arguments of just where the technologist's responsibility
  851. ends and the consumer's responsibility begins, but I want to convince you,
  852. even if you don't believe in the consumer protection movement, that there is
  853. a nonzero technologist's responsibility.
  854.  
  855. Let us suppose, for example, that you discovered a new way to make
  856. screwdrivers, by making the handles out of plastic explosives, so that the
  857. screwdriver would work much better under some circumstances. In fact, these
  858. screwdrivers with the gelignite handles are so much better at putting in
  859. screws than any other screwdriver ever invented, that people buy them in
  860. droves. They have only one bug: if you ever forget that the handle is
  861. gelignite, and use the screwdriver to hit something with, it will explode and
  862. blow your hand off. You, the inventor of the screwdriver, moan each time you
  863. read a newspaper article about loss of limb, complaining that people
  864. shouldn't *do* that with your screwdrivers.
  865.  
  866. Now suppose that you have invented a great new way to make computer networks,
  867. and that it is significantly more convenient than any other way of making
  868. computer networks. In fact, these networks are so fast and so convenient that
  869. everybody is buying them. They have only one bug: if you ever use the network
  870. to connect to an untrusted computer, and then if you also forget to delete
  871. the permissions after you have done this, then people will break into your
  872. computer and delete all of your files. When people complain about this, you
  873. say "don't connect to untrusted computers" or "remember to delete the files"
  874. or "fire anyone who does that".
  875.  
  876. Dammit, it doesn't work that way. The world is full of people who care only
  877. about expediency, about getting their screws driven or their nets worked. In
  878. the heat of the moment, they are not going to remember the caveats. People
  879. never do. If the only computers were on military bases, you could forbid
  880. the practice and punish the offenders. But only about 0.1% of the computers
  881. are on military bases, so we need some solutions for the rest of us.
  882.  
  883. Consider this scenario (a true story). Some guy in the Petroleum Engineering
  884. department buys a computer, gets a BSD license for it, and hires a Computer
  885. Science major to do some systems programming for him. The CS major hasn't
  886. taken the networks course yet and doesn't know the risks of breakins. The
  887. petroleum engineer doesn't know a network from a rubber chicken, and in
  888. desperation tells the CS student that he can do whatever he wants as long as
  889. the plots are done by Friday afternoon. The CS student needs to do some
  890. homework, and it is much more convenient for him to do his homework on the
  891. petroleum computer, so he does his homework there. Then he needs to copy it
  892. to the CS department computer, so he puts a permission file in his account on
  893. the CSD computer that will let him copy his homework from the petroleum
  894. engineering computer to the CSD computer. Now the CS student graduates and
  895. gets a job as a systems programmer for the Robotics department, and his
  896. systems programmer's account has lots of permissions. He has long since
  897. forgotten about the permissions file that he set up to move his homework last
  898. March. Meanwhile, somebody breaks into the petroleum engineering computer,
  899. because its owner is more interested in petroleum than in computers and
  900. doesn't really care what the guest password is. The somebody follows the
  901. permission links and breaks into the robotics computer and deletes things.
  902.  
  903. Whose fault is this? Who is to blame? Who caused this breakin? Was it the
  904. network administrator, who "permitted" the creation of .rhosts files? Was it
  905. the person who, in a fit of expedience, created /usr/local/bin with 0776
  906. protection? Was it the idiot at UCB who released 4.2BSD with /usr/spool/at
  907. having protection 0777? Was it the owner of the petroleum engineering
  908. computer? Was it the mother of the kid who did the breaking in, for failing
  909. to teach him to respect electronic private property? I'm not sure whose fault
  910. it is, but I know three things:
  911.  
  912.  1) It isn't my fault (I wasn't there). It isn't the student's fault (he
  913.     didn't know any better--what can you expect for $5.75/hour). It isn't the
  914.     petroleum engineer's fault (NSF only gave him 65% of the grant money he
  915.     asked for and he couldn't afford a full-time programmer). Maybe you could
  916.     argue that it is the fault of the administrator of the CSD machine, but in
  917.     fact there was no administrator of the CSD machine because he had quit to
  918.     form a startup company. In fact, it is nobody's fault.
  919.  
  920.  2) No solution involving authority, management, or administration will work
  921.     in a network that crosses organization boundaries.
  922.  
  923.  3) If people keep designing technologies that are both convenient and 
  924.     dangerous, and if they keep selling them to nonspecialists, then
  925.     expedience will always win out over caution. Convenience always wins,
  926.     except where it is specifically outlawed by authority. To me, this is
  927.     one of the primary RISKs of any technology. What's special about
  928.     computers is that the general public does not understand them well
  929.     enough to evaluate the risks for itself.
  930.  
  931. ------------------------------
  932.  
  933. Date: Wed, 24 Sep 86 09:35:37 pdt
  934. From: hplabs!sdcrdcf!darrelj@ucbvax.Berkeley.EDU (Darrel VanBuer)
  935. Organization: System Development Corporation R&D, Santa Monica
  936. To: hplabs!CSL.SRI.COM!RISKS
  937. Subject: Re: Stanford breakin, RISKS-3.62 DIGEST
  938. RISKS-LIST: RISKS-FORUM Digest  Thursday 25 September 1986  Volume 3 : Issue 67
  939.  
  940. I think many of the respondents misunderstand what went wrong: there was no
  941. failure in the 4.2 trusted networking code.  It correctly communicated the
  942. message that "someone logged in as X at Y wants to run program Z at W".  The
  943. failure of security was that
  944.   1)  the "someone" was not in fact X because of some failure of security
  945.       (e.g. poor password).
  946.   2)  the real X who had legitimate access on W had previously created a file
  947.       under some user id at W saying X at Y is an OK user.
  948.   3)  the real X was lazy about withdrawing remote privileges (not essential,
  949.       but widens the window of opportunity.
  950.  
  951. There's a tough tradeoff between user convenience in a networked environment
  952. and security.  Having to enter a password for every remote command is too
  953. arduous for frequent use.  Interlisp-D has an interesting approach:
  954.   1.  Try a generic userid and password.
  955.   2.  Try a host-specific userid and password.
  956. In either case, if it does not have these items in its cache, it prompts the
  957. user.  The cache is cleared on logout and at certain other times which
  958. suggest the user has gone away (e.g. 20 minutes without activity).
  959. Passwords are never stored in long term or publically accessible locations.
  960. It's also less convenient than 4.2 since you need to resupply IDs after
  961. every cache flush.  It also has the opening for lazy users to use the same
  962. ID and password at every host so that the generic entry is enough.
  963.  
  964. Darrel J. Van Buer, PhD, System Development Corp., 2525 Colorado Ave
  965. Santa Monica, CA 90406, (213)820-4111 x5449
  966. ...{allegra,burdvax,cbosgd,hplabs,ihnp4,orstcs,sdcsvax,ucla-cs,akgua}
  967.                                                             !sdcrdcf!darrelj
  968. VANBUER@USC-ECL.ARPA
  969.  
  970. ------------------------------
  971.  
  972. To: RISKS@CSL.SRI.COM
  973. Subject: Unix breakins - secure networks
  974. Date: 24 Sep 86 13:46:39 PDT (Wed)
  975. From: "David C. Stewart" <davest%tektronix.csnet@CSNET-RELAY.ARPA>
  976. RISKS-LIST: RISKS-FORUM Digest,  Friday, 26 September 1986  Volume 3 : Issue 68
  977.  
  978.     One of the observations that have been made in the wake of the
  979. Stanford breakin is that Berkeley Unix encourages the assumption that
  980. the network itself is secure when in fact, it is not difficult to imagine
  981. someone tapping the ethernet cable and masquerading as a trusted host.
  982.  
  983.     I have been intrigued by work that has been going on at CMU to
  984. support the ITC Distributed File System.  (In the following, Virtue is
  985. the portion of the filesystem running on a workstation and Vice is
  986. that part running on the file server.)
  987.  
  988.     The authentication and secure transmission functions are
  989.     provided as part of a connection-based communication package,
  990.     based on the remote procedure call paradigm.  At connection
  991.     establishment time, Vice and Virture are viewed as mutually
  992.     suspicious parties sharing a common encryption key.  This key
  993.     is used in an authentication handshake, at the end of which
  994.     each party is assured of the identity of the other.  The final
  995.     phase of the handshake generates a session key which is used
  996.     for encrypting all further communication on the connection.
  997.     The use of per-session encryption keys reduces the risk of
  998.     exposure of authentication keys. [1]
  999.  
  1000.     The paper goes on to state that the authorization key may be
  1001. supplied by a password (that generates the key but is not sent along
  1002. the wire in cleartext) or may be on a user-supplied magnetic card.
  1003.  
  1004.     This is one of the few systems I have seen that does not trust
  1005. network peers implicitly.  A nice possibility when trying to reduce
  1006. the risks involved with network security.
  1007.  
  1008. Dave Stewart - Tektronix Unix Support - davest@tektronix.TEK.COM
  1009.  
  1010. [1] "The ITC Distributed File System: Principles and Design",
  1011. Operating Systems Review, 19, 5, p. 43.
  1012.  
  1013. ------------------------------
  1014.  
  1015. From: Dave Taylor <taylor%hpldat@hplabs.HP.COM>
  1016. To: RISKS@sri-csl (The Risks Mailing Group)
  1017. Date: Fri, 26 Sep 86 17:55:53 PDT
  1018. Subject: Comment on the reaction to Brians Breakin Tale
  1019. Organization: Hewlett-Packard Laboratories, Unix Networking Group
  1020. Work-Phone-Number: +1 415 857-6887
  1021. RISKS-LIST: RISKS-FORUM Digest,  Friday, 26 September 1986  Volume 3 : Issue 68
  1022.  
  1023. I have to admit I am also rather shocked at the attitudes of most of the
  1024. people responding to Brian Reids' tale of the breakin at Stanford.  What
  1025. these respondents are ignoring is The Human Element.
  1026.  
  1027. Any system, however secure and well designed, is still limited by the
  1028. abilities, morals, ethics, and so on of the Humans that work with it.  Even
  1029. the best paper shredder, for example, or the best encryption algorithm, isn't
  1030. much good if the person who uses it doesn't care about security (so they shred
  1031. half the document and get bored, or use their husbands' first name as the
  1032. encryption key).
  1033.  
  1034. The point here isn't to trivialize this, but to consider and indeed, PLAN FOR
  1035. the human element.
  1036.  
  1037. I think we need to take a step back and think about it in this forum...
  1038.  
  1039.                         -- Dave
  1040.  
  1041. ------------------------------
  1042.  
  1043. End of RISKS-FORUM Digest  EXCERPTS ON UNIX BREAKINS AT STANFORD
  1044. ************************
  1045. 14-Oct-86 05:36:56-PDT,2516;000000000011
  1046. Return-Path: <minow%regent.DEC@decwrl.DEC.COM>
  1047. Received: from decwrl.dec.com by CSL.SRI.COM with TCP; Tue 14 Oct 86 05:36:48-PDT
  1048. Received: by decwrl.dec.com (5.54.2/4.7.34)
  1049.     id AA26218; Tue, 14 Oct 86 05:37:16 PDT
  1050. Message-Id: <8610141237.AA26218@decwrl.dec.com>
  1051. Date: 14-Oct-1986 0834
  1052. From: minow%regent.DEC@decwrl.DEC.COM  (Martin Minow, DECtalk Engineering ML3-1/U47 223-9922)
  1053. To: risks@csl.sri.com
  1054. Subject: "Pink Floyd" -- (slightly) more on the Stanford breakin
  1055.  
  1056. (From Usenet, originally posted by Werner Uhrig @ ut-ngp.uucp):
  1057.  
  1058. Path: decvax!ucbvax!ucbcad!nike!think!husc6!ut-sally!ut-ngp!werner
  1059. From: werner@ut-ngp.UUCP (Werner Uhrig)
  1060. Newsgroups: misc.headlines
  1061. Subject: "Pink Floyd" HACKER HITS UNIVERSITY COMPUTERS
  1062. Date: Thu, 9-Oct-86 23:24:29 EDT
  1063.  
  1064.  
  1065. [from the Sunday paper - I hate it when they use 'hacker' instead of 'cracker']
  1066.  
  1067.     'Pink Floyd' attacks lack clear motive
  1068.  
  1069. SAN FRANCISCO - A sophisticated computer hacker who calls himself "Pink Floyd"
  1070. has broken into dozens of university and business computers around the nation
  1071. and taunted the experts who have tried to thwart him.
  1072.  
  1073. The hacker reportedly has used telephone connections to break into computers
  1074. at Stanford University, Lawrence Berkeley Laboratory, the University of
  1075. Illinois, MIT, Mitre, and at least 3 unidentified Silicon Valley companies.
  1076.  
  1077. The intruder began the break-ins Aug. 25.  Some of the computers contain
  1078. military and government information, ....
  1079.  
  1080. However, a computer official at Stanford speculated that the hacker may be
  1081. using his extraordinary skill to make a point, since no damage to files or
  1082. programs has been found.
  1083.  
  1084. "Pink Floyd" has made only subtle alterations to some systems to make
  1085. detecting his intrusions more difficult ....
  1086.  
  1087. Stanford and others have spent thousands of dollars to improve security as a
  1088. result.
  1089.  
  1090. Stanford officials said the hacker has tapped into as many as 60 campus
  1091. computers, some of which include systems that contain non-classified,
  1092. Pentagon-sponsored research data and programs.
  1093.  
  1094. The intruder, described by one computer scientist as fitting the profile of a
  1095. computer-science graduate student, has called Standford officials and carried
  1096. on a phone conversation with them while breaking security protection in campus
  1097. computers.
  1098.  
  1099. "This is the most pesky kind of case, involving people trying to get into
  1100. systems rather than do damage," said Jay BloomBecker, director of the
  1101. National Center for Computer Crime Data in Los Angeles.
  1102.