home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #19 / NN_1992_19.iso / spool / vmsnet / internal / 1226 < prev    next >
Encoding:
Internet Message Format  |  1992-08-31  |  3.7 KB

  1. Path: sparky!uunet!europa.asd.contel.com!darwin.sura.net!wupost!zaphod.mps.ohio-state.edu!moe.ksu.ksu.edu!kuhub.cc.ukans.edu!husc-news.harvard.edu!husc10.harvard.edu!joltes
  2. Newsgroups: vmsnet.internals
  3. Subject: Re: VMS tuning for a vaxcluster (LAVC)
  4. Message-ID: <1992Aug31.105416.15245@husc3.harvard.edu>
  5. From: joltes@husc10.harvard.edu (Richard Joltes)
  6. Date: 31 Aug 92 10:54:14 EDT
  7. References: <9208281916.AA02286@sndsu1.sinet.slb.com>
  8. Organization: Harvard University Science Center
  9. Nntp-Posting-Host: husc10.harvard.edu
  10. Lines: 57
  11.  
  12. <brydon@dsny25.sinet.slb.com> writes:
  13.  
  14. [much useful stuff deleted]
  15.  
  16. >Okay, but what about the situation of one satellite vaxstation on a lightly
  17. >loaded network?  I think page read I/O's should be considered separately from
  18. >page write I/O's.  Does this satellite system do page read I/O's any faster
  19. >over the ethernet versus to local disk?  [I would imagine that page write
  20. >I/O's would be dependent entirely on the relative disk speeds of the local
  21. >versus boot node disk speed.]
  22.  
  23. Nope.  The local disk's still faster.  When I and a friend did VMS tuning
  24. studies for <a former employer> we found that even on an unloaded net the
  25. local disk was faster.  Mind you, this was using VAXstation IIs with between
  26. 5 and 16MB and RD54s.  Mileage on newer systems may vary, but I'd bet that
  27. the local disk still beats Ethernet traffic.
  28.  
  29. Using a VAXserver 3600 (with RA81 system/application disk) we saw around a
  30. 15% loss in performance using the same VS II when we dropped the local page
  31. disk.  The systems had been AUTOGENed and adjusted to reflect the changes.
  32.  
  33. >About the bandwidth issue:  Indeed the bandwidth of ethernet versus disk
  34. >accesses are about the same but on a disk access you have some relatively
  35. >expensive things going on before the data transfer:  seek time, latency,
  36. >controller and CPU issues.  This kind of overhead of course goes on with
  37. >ethernet but at microsecond speeds rather than millisecond.
  38.  
  39. Sure, but what about all the processing that Ethernet requires?  Your I/O
  40. request goes through  multiple layers of s/w during its trip from the
  41. workstation to the server, then back through the same layers on the return.
  42. How does that compare with a local disk I/O?  What happens if the Ethernet
  43. burps (fragged packet, collision, whatever)?  There are more variables here,
  44. and more potential for error.  The studies that we conducted all pointed to
  45. higher efficiency with a local disk, no matter what the Ethernet load.  This
  46. may indicate internal problems with Ethernet transfers or with DEC's LAVC
  47. code, or it may just be that local work is simply faster.
  48.  
  49. My tuning philosophy has always been to spread out the I/O channels and 
  50. balance the load across them.  Adding the page/swap load to the ethernet
  51. violates that rule, so I don't do it.  If you're doing X on your workstations
  52. you're already loading up the 10MB ethernet bandwidth (admittedly you'd most
  53. likely have to run many apps across the net to peak things out too
  54. badly), and I'd rather not add any unnecessary disk accesses to that traffic.
  55.  
  56. Plan for performance down the road.  Any LAVC will probably grow over time, and
  57. it's easier to configure a small cluster once than to go back and install local
  58. disks once growth causes performance to degrade.  RZ23s are cheap, and make 
  59. reasonable local disks.  RD53s are practically free nowadays, too.  The gain
  60. in performance is worth the initial cost.
  61.  
  62. --------------------------------------------------------------------------------
  63. Dick Joltes                        joltes@husc.harvard.edu
  64. Hardware & Networking Manager, Computer Services     joltes@husc.bitnet 
  65. Harvard University Science Center
  66.  
  67. "Mind you, not as bad as the night Archie Pettigrew ate some
  68. sheep's testicles for a bet...God, that bloody sheep kicked him..."
  69.