home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #18 / NN_1992_18.iso / spool / comp / protocol / nfs / 2092 < prev    next >
Encoding:
Text File  |  1992-08-19  |  4.4 KB  |  91 lines

  1. Newsgroups: comp.protocols.nfs
  2. Path: sparky!uunet!snorkelwacker.mit.edu!stanford.edu!ames!sgi!rhyolite!vjs
  3. From: vjs@rhyolite.wpd.sgi.com (Vernon Schryver)
  4. Subject: Re: Free NFS Response Time Measurement Software
  5. Message-ID: <op4fvdo@rhyolite.wpd.sgi.com>
  6. Summary: you never get more than what you pay for
  7. Organization: Silicon Graphics, Inc.  Mountain View, CA
  8. References: <1992Aug10.045921.13353@aim.com> <nxfyh!-@rpi.edu>
  9. Date: Wed, 19 Aug 1992 14:41:01 GMT
  10. Lines: 79
  11.  
  12. In article <nxfyh!-@rpi.edu>, fitzgb@mml0.meche.rpi.edu (Brian Fitzgerald) writes:
  13. > NFS RTM Distribution writes:
  14. > >
  15. > >                    *************************************
  16. > >                    FREE NFS SERVER RESPONSE TIME UTILITY
  17. > >                    *************************************
  18. > ... cool program.  For anyone interested, here's an example output of
  19. > the free demo they sent me.  Good teaser for the sharpshooter.
  20. > ...
  21.  
  22. >                         NFS RESPONSE TIME REPORT
  23. >                 Failure Rate       NFS Response Time (ms)      NFS Load
  24. > Server            Over  20ms           Avg        Max         (ops/sec)
  25. > -----------------------------------------------------------------------
  26. > hammer                    0%           2.9        3.1               0.0
  27. > darwin                    0%           1.0        1.0               0.0
  28. > usenet                   20%          10.9       67.6               0.9
  29. > mml0                      0%           2.5        2.7               0.1
  30. > cds1                      9%           5.8       27.6               0.2
  31.  
  32.  
  33. I'd be very surprised if the AIM test is a fraction as interesting as
  34. LADDIS, the multi-vendor effort within SPEC to come up with an NFS
  35. benchmark.
  36.  
  37. Deciding what to measure is always hard, and particularly difficult
  38. with NFS.  Most people do not know and do not know they don't know
  39. which operations are common between an NFS client and its server.  The
  40. response time of the server depends radically on which operations you
  41. assume are common, and about their nature.  Trivially, what block size
  42. do you assume?  What about client or server caching?  Both of those
  43. have 10X effects on read and write speed.  What about evil async
  44. writes, which can have >2X effects?  I would not trust a benchmark that
  45. did not spend a lot of time convincing me it's assumptions about client
  46. working set are reasonable; you can expect "response times" to vary by
  47. 100X depending on the size of the client working set.
  48.  
  49. The hard problem with the operation mix is that reads and writes are
  50. generally not as common as one would thing.  The exact operation mix
  51. for LADDIS has been controversial.  They have switched to a synthetic
  52. load generator from using real NFS clients.  I guess it was too hard to
  53. define a standard client.  (It's well known that the speed of the
  54. clients is at least as important as the speed of the server.)
  55.  
  56. Another controversy within the group working on LADDIS has been what,
  57. if any, single "figure of merit" or number the LADDIS benchmark should
  58. produce.  I don't recall seeing mention of "response time" for a long
  59. time.
  60.  
  61. I'd be very surprised if the AIM test is very valuable.  I could be
  62. wrong, of course, especially since I have never seen the AIM NFS test.
  63.  
  64. I don't make this attack lightly, but the history of commerical
  65. benchmarks is not pretty.  If you think the system vendors are scum,
  66. then you should check the benchmark slime.  Would it be fair to say
  67. that SPEC was formed as response to Dhrystone and the so called
  68. commercial CPU benchmarks?
  69.  
  70. If I wanted an NFS test, and if Silicon Graphics were not already
  71. involved, I'd wait a few more weeks and then buy the tape of LADDIS
  72. from SPEC.  (I think the SPEC CPU benchmark tape costs $200).
  73.  
  74. If I wanted a reasonable benchmark from people who understand NFS that
  75. is free or next to free, I'd contact Legato for a copy of nfshstone (it
  76. has an extra "h" in there somewhere).  It was the starting point for
  77. LADDIS and is the benchmark that NFS server vendors are currently
  78. competing on.  If you call a vendor and ask for numbers, you'll
  79. probably be able to get nhfsstone numbers.
  80.  
  81. If I didn't want to spend any money, I would simply get a copy of the
  82. Sun NFS validation suite.  It generates several numbers, and was the
  83. de facto benchmark among NFS developers for years.  It's numbers are
  84. not very good, but at least you get the source and can see exactly what
  85. it thinks it is measuring.  Of course, you also get the source for
  86. LADDIS and nfsshtone.
  87.  
  88.  
  89. Vernon Schryver,  vjs@sgi.com
  90.