home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1993 #1 / NN_1993_1.iso / spool / comp / os / vms / 20288 < prev    next >
Encoding:
Internet Message Format  |  1993-01-04  |  3.7 KB

  1. Path: sparky!uunet!munnari.oz.au!comp.vuw.ac.nz!zl2tnm!toyunix!don
  2. Newsgroups: comp.os.vms
  3. Subject: Re: HELP!!! Security problem for gurus. [Directories]
  4. Message-ID: <16984003@zl2tnm.gen.nz>
  5. From: don@zl2tnm.gen.nz (Don Stokes)
  6. Date: 4 Jan 93 14:25:13 GMT
  7. Sender: news@zl2tnm.gen.nz (GNEWS Version 2.0 news poster.)
  8. References: <1i904kINNdbj@gap.caltech.edu>
  9. Distribution: world
  10. Organization: The Wolery
  11. Lines: 61
  12.  
  13. carl@SOL1.GPS.CALTECH.EDU (Carl J Lydick) writes:
  14. > In article <14628002@zl2tnm.gen.nz>, don@zl2tnm.gen.nz (Don Stokes) writes:
  15. > >RMS won't crash a system at all (unless BUGCHECKFATAL is set).  The XQP might.
  16. > >RMS lives in exec mode; an unhandled condition will at worst take out the 
  17. > >process.  
  18. > That's technically true, but since RMS calls the XQP, the distinction isn't as
  19. > clear as it might otherwise seem.  For example, the first time I was really
  20.  
  21. Well, the distinction is that it's a lot easier to step on something in a
  22. way to make RMS feel upset than it is to step on something that will make
  23. the XQP barf.  Directories are one case where you can potentially freak the
  24. XQP out, and I have seen the XQP die horribly on bad directories.  
  25.  
  26. When asked, DEC have always considered crashes due to file structure problems
  27. as bugs to be fixed (ie better error checking required), rather than a 
  28. natural response to a corrupt filesystem.
  29.  
  30.  
  31. > In my humble (STOP THE SNICKERING!) opinion, if the system disk is found to
  32. > have been hosed, the system should shut down NOW!
  33.  
  34. It looks like our differing backgrounds are showing.  My background is in
  35. systems where organisations' livelihoods depended on the computers running;
  36. they weren't just used for counting the beans at the end of the day.  Downtime
  37. meant slipped deadlines and penalty clauses.  In these cases, it doesn't
  38. matter how stuffed the system is, if you can keep production rolling while you 
  39. figure out what to do, you do.  Classic example: a dumpfile was deleted (NOT
  40. BY ME!) without the system being rebooted.  This ws V4.7, and the effect was
  41. that when the system was rebooted weeks later, memory was copied to where 
  42. the dumpfile used to be.  A defragger made quite sure there was useful stuff
  43. underneath the dump.  Oops!
  44.  
  45. I didn't get that problem finally sorted out until a couple of days later.
  46. But the system ran the whole time, and no production time was lost (apart
  47. from < 1/2 an hour at a quiet time while I rebooted the cluster onto a
  48. de-scrozzled system disk).  If the system had died, I'd have had to spend
  49. many long hours backing up the bad disk so I could find out what went wrong,
  50. restoring from backup and picking any changes since the backup.  I'd really
  51. not want to tell those who hold the pursestrings that it was "right" to 
  52. crash in a potentially recoverable situation.
  53.  
  54. Sure, there are situations when security is an overriding considerations.
  55. I believe these are in a minority compared to cases where production is
  56. the overriding consideration.  Users don't scream when a security hole
  57. is opened; they do when the system goes down under them.  
  58.  
  59. It's a simple (hah!) matter of risk management.  In my experience, disk
  60. corruption is very unlikely to open a security hole (it might deny access
  61. by destroying SYSUAF or whatever).  It's certainly more likely to cause
  62. denial of service.  Keeping as much as possible going is one way to 
  63. reduce the downtime; crashing could render the system unbootable and 
  64. require extensive effort to repair.
  65.  
  66. Fortunately, DEC seems to agree with me more than you on this one, Carl,
  67. and I'm glad of it!  8-)
  68.  
  69. --
  70. Don Stokes, ZL2TNM (DS555)                        don@zl2tnm.gen.nz (home)
  71. Network Manager, Computing Services Centre            don@vuw.ac.nz (work)
  72. Victoria University of Wellington, New Zealand              +64-4-495-5052
  73.