home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1993 #1 / NN_1993_1.iso / spool / comp / sys / novell / 11193 < prev    next >
Encoding:
Internet Message Format  |  1993-01-04  |  4.4 KB

  1. Xref: sparky comp.sys.novell:11193 bit.listserv.novell:20011 comp.arch.storage:899 comp.periphs:1729
  2. Path: sparky!uunet!haven.umd.edu!darwin.sura.net!spool.mu.edu!uwm.edu!psuvax1!rutgers!concert!samba!nuntius
  3. From: tmorris@sph.unc.edu (Thomas P. Morris)
  4. Newsgroups: comp.sys.novell,bit.listserv.novell,comp.arch.storage,comp.periphs
  5. Subject: Re: Server Fault Tolerant H/W Sources Sought
  6. Message-ID: <1993Jan6.233950.23303@samba.oit.unc.edu>
  7. Date: 6 Jan 93 23:39:50 GMT
  8. References: <199301042217.AA07305@tuna.wang.com>
  9. Sender: usenet@samba.oit.unc.edu
  10. Organization: UNC School of Public Health, CAIS
  11. Lines: 92
  12. Nntp-Posting-Host: mersenius.sph.unc.edu
  13. X-Useragent: Nuntius v1.1
  14.  
  15. In response to my query for sources for fault tolerant hardware for our
  16. NetWare file server.....
  17. In article <1993Jan05.142247.27619@rchland.ibm.com> Del Cecchi,
  18. cecchi@rchland.vnet.ibm.com writes:
  19. >
  20. >1.5 GB is only one drive, worth about 2500 or 3000 bucks.  Do you really need 
  21. >the fault tolerance?  MTBF of modern drives is in the hundreds of thousand
  22. hours
  23. >range.  RAID seems like swatting flies with a sledge hammer for this app.
  24. >
  25.  
  26. Yes, Del, I -really- need at least -some- form of more-or-less
  27. automatic-failover
  28. fault tolerance, though you are right that RAID seems like "swatting flies." 
  29. RAID is only one of the options I am looking at; what I am trying to do is to
  30. perform a costs-benefits analysis vis a vis different levels of fault
  31. tolerance in hardware and software.  Some of
  32. the current options available (duplexing, mirroring, RAID, the ability to
  33. "swap" out
  34. components without shutting down the system) are really -not- that expensive,
  35. and
  36. provide for nearly 100% availability during scheduled uptime. 
  37.  
  38. If you read the entirety of my original article,  I wrote:
  39.  
  40. >[...some material omitted...]
  41. >This server serves ~90 DOS & Windows clients, 60-70 simultaneously attached 
  42. >including 6-7 HP printers with JetDirect print server cards. We have NW4MAC
  43. support 
  44. >loaded and will shortly attach ~30 Mac clients and  3-4 AppleTalked
  45. LaserWriters. >Longer term, we expect to have > 200 total client machines in
  46. the next 6-12 months, 
  47. >and up to 300 or more client machines beyond the next 12 months, and up to 30
  48. more 
  49. >printserver-style queues.  In terms of storage needs,  I would expect to need
  50. to 
  51. >upgrade to ~1.5Gb storage in the next year (not including mirror or duplex
  52. drives),
  53. >with up to 3Gb needed in the longer term.
  54. >[...]
  55.  
  56.  For my "client" users, this server is the -only- place from which they can
  57. launch
  58.  their word processors, spreadsheets, comunications programs, etc.  It is also
  59. the
  60.  =only= place to which they can print their results.   My main concern,
  61. then, is =not= 
  62. to piss off the >200-300 client users by having =any= form of "major"
  63. unscheduled downtime.
  64.  
  65. If I have -no- form of faul tolerance, or if if -do not- keep a "hot spare"
  66. disk and/or
  67. server CPU available, then what do I do =when= (not -if-) my CPU or disk
  68. controller
  69. or a disk fails?   The Manufacturers'  rated MTBF ratings notwithstanding, 
  70. what is
  71. =most= important to me (and to my clients) is the MTTR (mean time to repair). 
  72. A
  73. rated Mean Time Between Failure (MTBF) is just that:  within that rated time,
  74. one
  75. half (50%) of components of this type =will= fail.  In some shorter period of
  76. time,
  77. some smaller percentage of these components =will= fail.
  78.  
  79. If I have to wait a week to replace a CPU or a disk, first I lose my clients,
  80. and then I 
  81. lose my job.  If I setup a server so that single or even multiple components
  82. can fail,
  83. and only barely affect my clients, my clients are happy, and I am happy.  If
  84. these 
  85. components can fail, and if I can swap in replacement hardware without having
  86. to
  87. "down" my server, or if I only have to "down" the server for a very brief time,
  88. I'm even happier, and so are my clients. I'm happy  -because- they are happy,
  89. and 
  90. because I can keep my job.
  91.  
  92. Now, back to the mention of "swatting flies."  Let's look at some ballpark
  93. numbers.
  94. A 3-1Gb drive, 3-controller, RAID 5 implementation with ~2Gb of available user
  95. disk
  96. space from one vendor runs in the $11,000 range.  A standard NetWare "disk
  97. duplexing"
  98. configuration with 4-1Gb drives and 2 controllers costs in the $9,000 range.,
  99. about
  100. 20% less expensive.  If I understand RAID 5 correctly (which I probably don't
  101. :-), 
  102. expanding this configuration to 3Gb of available space by adding 1 additional
  103. 1Gb
  104. drive, only costs me ~$3500 more; doing the same upgrade with duplexing costs
  105. me
  106. ~$5000 more.
  107.