home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #30 / NN_1992_30.iso / spool / comp / sys / hp / 14230 < prev    next >
Encoding:
Internet Message Format  |  1992-12-21  |  3.2 KB

  1. Path: sparky!uunet!newsstand.cit.cornell.edu!news.graphics.cornell.edu!boa.graphics.cornell.edu!hurf
  2. From: hurf@boa.graphics.cornell.edu (Hurf Sheldon)
  3. Newsgroups: comp.sys.hp
  4. Subject: Re: clusters
  5. Date: 18 Dec 1992 17:32:50 GMT
  6. Organization: Cornell University Program of Computer Graphics
  7. Lines: 53
  8. Distribution: world
  9. Message-ID: <1gt202INN1od@loon.graphics.cornell.edu>
  10. References: <BzFsCM.H5u@bunyip.cc.uq.oz.au> <42692@sdcc12.ucsd.edu>
  11. NNTP-Posting-Host: boa.graphics.cornell.edu
  12. Keywords: cluster
  13.  
  14. In article <BzFsCM.H5u@bunyip.cc.uq.oz.au> werner@dirac.physics.uq.oz.au writes:
  15. >We are investigating buying several HP7?? snakes and have heard about
  16. >something called a cluster environment for HP workstations.
  17. >Has anybody used this system , what is the implementation (i.e RPC calls?),
  18. >what are the capabilities, what are the management problems, what are the
  19. >limitations, do all the machines have to be identical?
  20.  
  21.     The HP cluster environment is very nice with few drawbacks. We 
  22.     have a number of 700 systems running under a cluster, each with
  23.     local swap. This works exceedingly well. There are few files that
  24.     are unique to the local systems. All mounts at the server are
  25.     mounts at the clients including nfs and cdroms. (You can only
  26.     mount cdroms at the server - a very minor pain). 
  27.     Some real plusses:
  28.     Network File I/O - Within the cluster you can see full ethernet
  29.     bandwidth (vs nfs at something less than 20% effective) - I don't
  30.     know how they do it but it works very well.
  31.         Adding new systems - Run sam to add a client, enter
  32.     the hardware address from the shipping label, the network id, plug in the
  33.     network and the power cord and turn it on. That's it.
  34.     Updating & patching - Run update on the server - that's it.
  35.     Client hangs (we do a lot of develpment - it happens) - cycle
  36.     power, it's up as soon as the memory check is done. (ala PC's)
  37.     Mail, lpadmin is all done only on the server - essentially
  38.     you only need to admin one machine for n < 30 systems.
  39.     Some gotcha's:
  40.     Don't plan on network swap with very many systems (>3)
  41.      ( You can swith to/from net swap by editing one file on the server
  42.      so if you need to run any client diskless it is easily done. )
  43.     Server dies, everybody dies; the clients come around
  44.     so much faster they hang so you have to cycle power on all the
  45.     clients (sub-gotcha - this is so rare you can't remember where all 
  46.     clients are... really)
  47.     Ethernet is much more sensitive to trouble - the old "I've got
  48.     15 secs to reconnect" won't work - more like 2 or 3 sec's tops
  49.     before the client gets abandoned and the server fills the console 
  50.     with error messages (a sub-plus is you can wiggle a bad connector 
  51.     and see an instant error message)
  52.     There can be some subtle misunderstandings because of the context
  53.     dependent file structure but they get pretty obvious after you
  54.     see one or two.
  55.     All in all I reccommend the cluster environment to any hp site
  56.     with more than one system of the same type. I think you would need
  57.     more than one of each type to see any benefit to a 'mixed' cluster
  58.     from a reduced overhead point of view.
  59.  
  60.  
  61. -- 
  62.      Hurf Sheldon             Network: hurf@graphics.cornell.edu
  63.      Program of Computer Graphics     Phone:   607 255 6713
  64.  
  65.      580 Eng. Theory Center, Cornell University, Ithaca, N.Y. 14853  
  66.      
  67.