home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #27 / NN_1992_27.iso / spool / comp / os / vms / 18039 < prev    next >
Encoding:
Internet Message Format  |  1992-11-17  |  3.6 KB

  1. Path: sparky!uunet!charon.amdahl.com!pacbell.com!decwrl!sun-barr!cs.utexas.edu!zaphod.mps.ohio-state.edu!darwin.sura.net!haven.umd.edu!umd5!bill.ab.umd.edu!bill
  2. From: bill@bill.ab.umd.edu (Bill Bame)
  3. Newsgroups: comp.os.vms
  4. Subject: 2 node LAVC "problem"!
  5. Keywords: VMS, LAVC
  6. Message-ID: <17017@umd5.umd.edu>
  7. Date: 16 Nov 92 22:49:04 GMT
  8. Sender: news@umd5.umd.edu
  9. Reply-To: bill@office.ab.umd.edu
  10. Organization: M.I.E.M.S.S.
  11. Lines: 64
  12.  
  13. Ok, I know this has been asked before (probably hundreds of times) here and
  14. elsewhere, but I never thought I would be in this situation, so I didn't
  15. bother to read the replys.  Before I go into detail, the question is:
  16. "Is it possible to set up a two node cluster in such a way that crashing
  17. either node does not reduce the number of votes below QUORUM".
  18.  
  19. I have a client who has replaced a LAVC made up of 4 overburdened
  20. microvax IIs with a cluster of two 3100/80s.  That's the good news.
  21.  
  22. +--------+  +-------+  +-------+  +--------+
  23. |System  |  |Common |  |Common |  |System  |
  24. |Disk for+--+Data   |  |Data   +--+Disk for|
  25. |VAX  #1 |  |Disk   |  |Disk   |  |VAX  #2 |
  26. +----+---+  +-------+  +-------+  +---+----+
  27.      |                                |
  28.      | SCSI                      SCSI |
  29.      +-------+                +-------+
  30.              |                |
  31.          +---+---+        +---+---+
  32.          |VAX  #1|        |VAX  #2|
  33.          +---+---+        +---+---+
  34.              |    Ethernet    |
  35.              +----------------+
  36.  
  37. The 3100/80s have separate system disks (VMS 5.5-1), but need to share queues
  38. and disks (and tapes if DEC ever decides to support TMSCP-served SCSI tape
  39. drives).  I suggested that they use DFS and DQS instead of VAXCLUSTER since
  40. there are only two nodes - and since they don't share a system disk.  They
  41. weren't comfortable with that idea, mostly because it would cost them extra
  42. money, but also because they may want to add more nodes to the cluster in the
  43. future.  I configured the two 3100/80s as a LAVC, and it runs just fine.  The
  44. users seem VERY happy.  Now for the bad news...
  45.  
  46. There is a "perceived" problem caused by having a two node cluster (which I
  47. warned them about in advance).  Because of the way QUORUM is calculated
  48. [maximum of: (expected_votes+2)/2 and (total_votes+2)/2], the number of votes
  49. drops below QUORUM if either node goes down.  Either node will boot
  50. independently of the other since the QUORUM will be calculated using the
  51. (expected_votes+2)/2 formula, but as soon as both nodes are up, the
  52. (total_votes+2)/2 formula is used.  Let's say that EXPECTED_VOTES=1 and
  53. VOTES=1 (on both nodes).  That means that QUORUM is 1 [(1+2)/2] for a single
  54. node, but changes to 2 [(1+1+2)/2] once the second node has booted.  Simple
  55. algebra shows that the (total_votes+2)/2 formula won't allow a node to drop
  56. out of the cluster without "blocking activity" once both nodes have been booted.
  57.  
  58. Is there some trick (with a quorum disk perhaps) that will make this behavior
  59. go away?
  60.  
  61. I realize that I should know this already (having set up dozens of clusters),
  62. but I have never set up one with less than 3 nodes, and the manuals haven't
  63. been much help.
  64.  
  65. Thanks!
  66.  
  67. -Bill
  68. --
  69. --------------------------------------------------------------------------------
  70. William P. Bame                    | sneakernet: William P. Bame
  71. internet: bill@office.ab.umd.edu   |             M.I.E.M.S.S.
  72.           bbame@achi1.ab.umd.edu   |             22 South Greene Street
  73. AT&T    : [Work] (410) 328-3062    |             Baltimore, MD 21201
  74. CIS     : 71620,425                |             Room: T1R55
  75. --------------------------------------------------------------------------------
  76.  
  77.