home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #16 / NN_1992_16.iso / spool / comp / sys / hp / 8635 < prev    next >
Encoding:
Text File  |  1992-07-28  |  2.0 KB  |  50 lines

  1. Newsgroups: comp.sys.hp
  2. Path: sparky!uunet!wupost!usc!rpi!batcomputer!cornell!alg
  3. From: alg@cs.cornell.edu (Anne Louise Gockel)
  4. Subject: Configuration for a Cluster of HP 720's
  5. Message-ID: <1992Jul28.194810.16039@cs.cornell.edu>
  6. Organization: Cornell Univ. CS Dept, Ithaca NY 14853
  7. Date: Tue, 28 Jul 1992 19:48:10 GMT
  8. Lines: 40
  9.  
  10.  
  11. I am configuring a lab that will have about 15 HP 720's in it.  I've been
  12. weighing the options of configuring it as one or more clusters vs. using
  13. traditional NIS/NFS methods of managing a distributed lab.  Right now I'm
  14. leaning towards the cluster approach.
  15.  
  16. I would like this lab to have some redundancy in the servers.  I can think of
  17. two options and neither is particularly clean:
  18.  
  19. a) Have two clusters, a primary server on each cluster and split the clients.
  20. If one server goes down, the clients can be moved to the other server with
  21. minimal fuss.
  22.  
  23. This does have the advantage of splitting the client load between two servers.
  24.  
  25. However I believe I will have to use NIS and NFS to have a seamless user
  26. interface betwene the clusters.  Right?  Is there something I'm overlooking?
  27. Will the servers and clients cooperate with the NFS mounted /usr/spool/mail
  28. directory?
  29.  
  30. b) Have a disk on one client that is in some sense a "hot spare".  Basically
  31. this disk would be a copy of the server's disk.  If the primary server goes
  32. down, this client can be brought up as the new server with minimal
  33. re-configuration.  Will need to use "rdist" to keep most files updated and
  34. will need to pay particular attention to some of the cluster-specific files
  35. (/etc/clusterconf).  
  36.  
  37. Is there an "rdist" that works for HP-UX yet?
  38.  
  39.  
  40. Has anyone faced this decision and tried either option?  Comments or
  41. suggestions (preferably based on experiences)?  Is there some option that I am
  42. overlooking?  I am getting the feeling that the "cluster" concept does not
  43. scale up to hundreds of machines particularly well, and I'm suspicious that
  44. there's some key ideas that I've overlooked.
  45.  
  46.                     -Anne Louise Gockel
  47.                     Cornell Computer Science
  48.  
  49. Internet: alg@cs.cornell.edu        UUCP: cornell!alg
  50.