home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #26 / NN_1992_26.iso / spool / comp / sys / next / sysadmin / 6433 < prev    next >
Encoding:
Text File  |  1992-11-11  |  9.5 KB  |  228 lines

  1. Newsgroups: comp.sys.next.sysadmin
  2. Path: sparky!uunet!charon.amdahl.com!pacbell.com!ames!sun-barr!cs.utexas.edu!zaphod.mps.ohio-state.edu!menudo.uh.edu!usenet
  3. From: sears@tree.egr.uh.edu (Paul S. Sears)
  4. Subject: Re: Making a Client's File System Look Like its Server's
  5. Message-ID: <1992Nov11.212526.9289@menudo.uh.edu>
  6. Sender: usenet@menudo.uh.edu (USENET News System)
  7. Nntp-Posting-Host: thanatos.egr.uh.edu
  8. Reply-To: sears@tree.egr.uh.edu
  9. Organization: University of Houston
  10. References: <1992Nov11.195233.20996@leland.Stanford.EDU>
  11. Date: Wed, 11 Nov 1992 21:25:26 GMT
  12. Lines: 214
  13.  
  14. In article <1992Nov11.195233.20996@leland.Stanford.EDU>  
  15. gcolello@biosphere.Stanford.EDU (Greg Colello) writes:
  16. =>Paul:
  17. =>
  18. =>Thanks for the very detailed response to my detailed request. Below I  
  19. =>answer your question about how we make the mail clients "FROM:" field have  
  20. =>the server's address. I also have lots of questions in response to your  
  21. =>answers:
  22. =>
  23. =>Greg
  24. =>
  25.  
  26. Sure, my pleasure. And thanks for the tip on sendmail...
  27.  
  28. =>---------------------------------------------
  29. =>In article <1992Nov11.152052.8171@menudo.uh.edu> sears@tree.egr.uh.edu  
  30. =>(Paul S. Sears) writes:
  31. =>
  32. =>> =>8. Make the server the mail server.
  33. =>> 
  34. =>> Good.  export /usr/spool/mail.  Make sure sticky bit is set.  Chmod 1777  
  35. =>> /usr/spool/mail.
  36. =>
  37. =>But you're exporting / as you explain below. I thought you couldn't export  
  38. =>a child path if its parent was already exported (more below). What's this  
  39. =>about setting the sticky bit?
  40. =>
  41.  
  42. Ah, the rub.... You are indeed correct, in one sense.  I think I need to make  
  43. a distiction between exporting and mounting.  We export our / partition (we  
  44. have two on one disk / and /clients) as rw, but everyone mounts it as ro.  All  
  45. the clients mount the various directories in various ways.  Our entry for the  
  46. mail directory looks like this (imagine you were doing this by hand instead of  
  47. in Netinfo..._
  48.  
  49. #mount mailhost:/usr/spool/mail /usr/spool/mail nfs rw,bg,intr,noquota 0 0
  50.  
  51. Our other single mountpoints (remember I suggested that you have as few  
  52. mountpoints as you can get away with and just link everything to that  
  53. mountpoint?) looks like this:
  54.  
  55. #tree:/ /NeXTMount nfs ro,bg,intr,hard,nosuid,noquota,mnttimeo=5 0 0
  56.  
  57. (note the HARD mount.  Soft mounts are not reliable...)
  58.  
  59. Then on all our clients links were made as such:
  60.  
  61. /LocalApps -> /NeXTMount/LocalApps/@
  62. /LocalDeveloper -> /NeXTMount/LocalDeveloper/@
  63. /LocalLibrary -> /NeXTMount/LocalLibrary/@
  64.  
  65. Everything goes through a single mount point.  We have reduced our total  
  66. number of mount points to the following:
  67. /usr/spool/mail (server 1) via hard mount
  68. /Users (server 1) via /Net
  69. /Users (server 2) via /Net
  70. /Users2 (server 2) via /Net
  71. /NeXTMount  (server 1) via hard mount
  72. /NeXTMount2 (server 2) via hard mount
  73. /usr/spool/NeXTFaxes (server 2) via hard mount
  74. /CD-Rom (client) via /Net
  75. /Misc (client2) via /Net
  76.  
  77. =>---------------------------------------------
  78. =>> =>My first question is how many of the step 5 directories need  
  79. =>Read/Write  
  80. =>> =>access? For example I know that /usr/spool/mail-->/private/spool/mail  
  81.  
  82.  
  83.  
  84. =>> 
  85. =>
  86. =>Doesn't /usr/spool/mail need to be writable? I think so for users who  
  87. =>prefer to use Unix command line mail (we have some).
  88. =>
  89. =>Whoa. Partition? Who said anything about a partition? We have no  
  90. =>partitions on our disks. Is that how you are able to export the root as  
  91. =>read only and yet also export children like "/usr/spool/mail" and "/Users"  
  92. =>as read/write?
  93. =>
  94. =>BTW the 3.0 installer apparently doesn't give you the ability to create  
  95. =>partitions when you use its "complete install" mode.
  96. =>
  97.  
  98. Er, I have a bad habit of referring to everything as "partitions".  Ok.. so  
  99. you don't have multiple partitions... but you still have 1 partition :-)
  100.  
  101. Yes, /usr/spool/mail needs to be writable.  Check above how I made an attempt  
  102. to clarify exporting and mounting...
  103.  
  104. =>> be _hard_ mounts.  Having things in /Net via automounter proved to be  
  105. =>way too  
  106. =>> unreliable when the server gets bogged down with NFS requests.  Also, in  
  107. =>your  
  108. =>
  109. =>What is it with this /Net thing anyway? I want to understand what Next  
  110. =>intended before I assume it's not for me. I've been studying the way it  
  111. =>works and it is slightly confusing. I can only surmise that it was  
  112. =>intended for read only mounts by the following line in /etc/mtab for the  
  113. =>client stoma (placed there as a consequence of Netinfo setup on the server  
  114. =>biosphere):
  115. =>
  116. =>stoma:(autonfsmount[87]) "/Net" nfs ro,intr,port=686 0 0
  117. =>
  118. =>Now, when the exported path "biosphere:/Users" is mounted on stoma, it is  
  119. =>done as follows (also from /etc/mtab on the client):
  120. =>
  121. =>biosphere:/Users "/private/Net/biosphere/Users" nfs rw,bg,intr,noquota,net  
  122. =>0 0
  123. =>
  124. =>The server's name is slipped into the path. Netinfo set that up. As part  
  125. =>of the mount a soft link /Net/biosphere to /private/Net/biosphere is  
  126. =>created. What causes this to be done? Autonfsmount? Also how does  
  127. =>/etc/mtab get updated with mounts that I can't find in /etc/fstab? How are  
  128. =>these /Net mountings (such as /Users) being directed?
  129. =>
  130. =>Now while /Net is read only, which is also obvious from its permissions  
  131. =>dr-xr-xr-x, I assume that read/write directories (like /Users) can still  
  132. =>be mounted to it and accessed as read/write by making a soft link /Users  
  133. =>to /Net/biosphere/Users for example? I get this idea from observing how  
  134. =>/usr/spool/mail appears to give universal access to the restricted path  
  135. =>/private/spool/mail.
  136. =>
  137.  
  138. /Net is what automounter uses to have dynamic mounts.  These are soft mounts  
  139. that can come and go as the exporting host comes and goes.  /Net is the  
  140. primary place you would mount the /User partitions/directories as it is a  
  141. place that would _look_ the same no matter what client you were on.  For  
  142. example, if a user's home resides on a server, it would be  
  143. /Net/server/Users/user's_home on all the clients.  If you had other users on  
  144. other servers, they would be /Net/serverxxx/Users/userhome.
  145.  
  146. It basically provides a consistant place to mount things.  However, you do not  
  147. have much control on things that are mounted via automounter (ie., you can't  
  148. unmount them manually) because automounter handles those details.  If a server  
  149. crashes, the directories in /Net will disappear, but they will re-appear as  
  150. soon as the server comes back up (a benefit of using /Net).  However, I only  
  151. recommend using /Net for /User home directories.  Static, hard mounts are much  
  152. more reliable for everything else.  
  153.  
  154. =>---------------------------------------------
  155. =>> /etc/rc, up the # of nfsd processes from 6 to at least 8.
  156. =>> 
  157. =>
  158. =>Why is this be unreliable? It isn't clear to me that /Users is  
  159. =>automounted. Just /Net. Why this bump up in processes?
  160. =>
  161.  
  162. /Users is exported from your home directory server and the clients mount  
  163. /Users via /Net, so it looks like /Net/server/Users/xxxx on all the clients  
  164. (it is a consistant location.  Home directory does not change regardless of  
  165. client).
  166.  
  167. =>---------------------------------------------
  168. =>> And to address a particular misconception:
  169. =>> 
  170. =>[deleted stuff]...
  171. =>
  172. =>> for the wrong reasons.  NetBoot clients are a _severe_ drain on a  
  173. =>server's  
  174. =>> resources.  Try to avoid NetBoot clients if possible.  We have 11 (cubes  
  175. =>with  
  176. =>> 40M accelerator drives) out of 50 clients that are net boot.  They are  
  177. =>mostly  
  178. =>> serviced by our secondary server which has mucho process cycles to burn,  
  179. =>but  
  180. =>> even that server has its performance degraded when the netboots are in  
  181. =>heavy  
  182. =>> use...  
  183. =>> 
  184. =>
  185. =>I don't get it. Why should Netbooting (with local swap disks) be any more  
  186. =>of a stain on the server than having clients with their own OS and  
  187. =>exporting root to them? Are you saying that serving the OS kernal is a  
  188. =>bigger task than serving root? I would think that virtual memory would  
  189. =>solve that kernal serving problem if the local swap disks were actually  
  190. =>working.
  191. =>
  192.  
  193. Er, well, think about it.  First, a Netboot clients has _all_ of its  
  194. directories on the server (like /private/etc...) which means alot of nfs calls  
  195. to do anything basic (even stuff in /bin, /usr/bin).  On a machine with  
  196. minimal disk (105M with 73M used for NS), /bin, /private/etc, /usr/bin, and so  
  197. on are local.  Much faster, no need to bog the network down with nfs traffic.
  198.  
  199. Secondly, if set up incorrectly, netboots will swap to the _server_.  That  
  200. means that it is swapping across the network... with limited bandwidth  
  201. already, this is a serious bad thing!
  202.  
  203. =>-----------------------------------------------------------------
  204. =>BTW The new NFS Manager app seems to work great. It took me a while to  
  205. =>figure out what order it wanted me to do things in, but once I did it  
  206. =>seemed to greatly simplify the task. I think it may have a great future.
  207. =>
  208.  
  209. I need to warn you about a slight (nothing serious, but can be frustrating)  
  210. bug in NFSManager.app.  There is a little check box under the export  
  211. filesystem panel that has to do with treat all unknown users as uid xxx.  Do  
  212. not uncheck this box.  If you do, all mount requests to your server will be  
  213. denied...
  214.  
  215. =>-----------------------------------------------------------------
  216. =>Greg Colello
  217. =>Carnegie Institution, Department of Plant Biology
  218. =>Stanford University
  219. =>gcolello@biosphere.stanford.edu
  220.  
  221. --
  222. Paul S. Sears                *  sears@uh.edu (NeXT Mail OK)
  223. The University of Houston    *  suggestions@tree.egr.uh.edu (NeXT
  224. Engineering Computing Center *  comments, complaints, questions)
  225. NeXT System Administration   *  DoD#1967 '83 NightHawk 650SC 
  226.           >>> SSI Diving Certification #755020059 <<<
  227. "Programming is like sex: One mistake and you support it a lifetime."
  228.