home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #26 / NN_1992_26.iso / spool / comp / sys / sgi / 16008 < prev    next >
Encoding:
Text File  |  1992-11-05  |  4.0 KB  |  97 lines

  1. Newsgroups: comp.sys.sgi
  2. Path: sparky!uunet!europa.asd.contel.com!darwin.sura.net!spool.mu.edu!decwrl!sun-barr!sh.wide!wnoc-tyo-news!ccut!crow!trich
  3. From: trich@crow.omni.co.jp (Timothy Richards)
  4. Subject: Re: nullrecv question
  5. Message-ID: <1992Nov4.101627.10106@crow.omni.co.jp>
  6. Sender: trich@crow.omni.co.jp
  7. Reply-To: trich@crow.omni.co.jp
  8. Organization: Omnibus Japan, Inc.
  9. Date: Wed, 4 Nov 92 10:16:27 GMT
  10. Lines: 85
  11.  
  12. "Douglas E. James" <rz81134%executioner.d50.lilly.com@BRL.MIL> writes:
  13.  
  14. >     We are currently implementing a SGI PowerFile 100 fileserver.  I was
  15. > looking through the NFS manuals and ran across the nfsstat command.  The output
  16. > follows: (the machine is a 340S with 64MB memory running IRIX 4.0.4 using its
  17. > FDDI interface as the primary interface)
  18. > Server rpc:
  19. > calls      badcalls   nullrecv   badlen     xdrcall
  20. > 2244071    0          1377407    0          0
  21. >     Should I be concerned at the nullrecv number..? It appears to be a 
  22. > bit high.  I checked other machines that were exporting NFS directories, and
  23. > their counts were much lower for this nullrecv value.  
  24. >     I also noticed the nfsd were accumulating some time ......
  25.  
  26. I noticed these things too and raised the issue with support, I also
  27. noticed that these situations only occur on multi-cpu machines.
  28. Anyway here are the responses I got from NSG/SGI support
  29. ( which seemed quite unsatisfactory and I guess I just decided to drop
  30. the matter.)
  31.  
  32. > There is a slight difference between irix3.3+ and irix4.0+.
  33. > Under 3.3 all network processes ran on the same processor.
  34. > Under 4.0+ the networking processes can run on different processors
  35. > to distribute the load (this improves performance).
  36. > That was the only change I found.
  37. > To lock all network processes to one processor on a 4.0+ multi processor
  38. > machine you would have to change /etc/init.d/network, like this: 
  39. > #        if test -x /usr/etc/rtnetd; then
  40. > #            # Always start on multiprocessors for better throughput
  41. > #            if $IS_ON rtnetd || test `mpadmin -u | wc -l` -gt 1; then
  42. > #                /usr/etc/rtnetd `cat $CONFIG/rtnetd.options 2> /dev/null`
  43. > #                                                        $ECHO " rtnetd\c"
  44. > #            fi
  45. > #        fi
  46. > You might try that as an experiment; but, it would reduce network
  47. > performance.
  48.  
  49. Well this isn't what the man page for rtnetd says at all !!!
  50. The man page says that rtnetd halts network packet processing whenever
  51. the load gets too high.  So this seems to be very missleading advice.
  52.  
  53.  
  54. Again also NSG/SGI support writes....
  55.  
  56. > On our main source tree system we get:
  57. > calls      badcalls   nullrecv   badlen     xdrcall
  58. > 32317149   0          16653080   0          0          
  59. > It is running 4 nfsd processes and has been up 10 days.
  60. > >From "Managing NFS and NIS" by O'Reilly (a great book that we use):
  61. >   The nullrecv field is incremented whenever an nfsd daemon is 
  62. >   scheduled to run but finds that there is no packet on the 
  63. >   NFS service socket queue.  If the server is running an
  64. >   excessive number of nfsd daemons, it is possible that there 
  65. >   will be more runnable daemons than requests to drain from 
  66. >   the NFS socket, so some daemons wake up but do not receive
  67. >   any data.
  68. >   nullrecv > 0.  NFS requests are not arriving fast enough to keep    
  69. >   all of the nfsd daemons busy.  Reduce the number of NFS server 
  70. >   daemons untill nullrecv is not incremented
  71. > So, I dont think there is any problem. He might want to run
  72. > fewer nfsd daemons.
  73.  
  74. As you can see the explanation from NSG/SGI seems highly contraditory.
  75. Its my opinion that the nullrecv output on multi-cpu machines is
  76. broken and meaningless.  As for the accumilating cpu time of the nfsd,
  77. I don't know, I guess you can just take there word for it that its not
  78. a problem.
  79. -- 
  80. -----------------------------------------------------------------------------
  81. Timothy Richards, Omnibus Japan.        work: +81 (3) 5706-8357
  82. [Uucp]      ccut.cc.u-tokyo.ac.jp!crow!trich    home: +81 (3) 3720-4088
  83. [Internet]  trich@omni.co.jp
  84.