home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #26 / NN_1992_26.iso / spool / comp / sys / next / sysadmin / 6429 < prev    next >
Encoding:
Text File  |  1992-11-11  |  8.5 KB  |  242 lines

  1. Newsgroups: comp.sys.next.sysadmin
  2. Path: sparky!uunet!ukma!usenet.ins.cwru.edu!agate!stanford.edu!leland.Stanford.EDU!news
  3. From: gcolello@biosphere.Stanford.EDU (Greg Colello)
  4. Subject: Re: Making a Client's File System Look Like its Server's
  5. Message-ID: <1992Nov11.195233.20996@leland.Stanford.EDU>
  6. Sender: news@leland.Stanford.EDU (Mr News)
  7. Organization: DSO, Stanford University
  8. References: <1992Nov11.152052.8171@menudo.uh.edu>
  9. Date: Wed, 11 Nov 92 19:52:33 GMT
  10. Lines: 230
  11.  
  12. Paul:
  13.  
  14. Thanks for the very detailed response to my detailed request. Below I  
  15. answer your question about how we make the mail clients "FROM:" field have  
  16. the server's address. I also have lots of questions in response to your  
  17. answers:
  18.  
  19. Greg
  20.  
  21. ---------------------------------------------
  22. In article <1992Nov11.152052.8171@menudo.uh.edu> sears@tree.egr.uh.edu  
  23. (Paul S. Sears) writes:
  24.  
  25. > =>3. Load all Next packages on the server.
  26. > Like the extended release stuff (NextDeveloper, Documentation, all the  
  27. other  
  28. > languages?)
  29.  
  30. Yes.
  31.  
  32. ---------------------------------------------
  33. > =>8. Make the server the mail server.
  34. > Good.  export /usr/spool/mail.  Make sure sticky bit is set.  Chmod 1777  
  35. > /usr/spool/mail.
  36.  
  37. But you're exporting / as you explain below. I thought you couldn't export  
  38. a child path if its parent was already exported (more below). What's this  
  39. about setting the sticky bit?
  40.  
  41. ---------------------------------------------
  42. > =>10. Adjust the clients' sendmail.sharedsubsidiary.cf file to cause  
  43. mail  
  44. > =>sent from them to bear the server's name instead of their own.
  45. > Good idea, and I would like to know what you did to make this work.  I  
  46. have  
  47. > been yet unsuccessful in hiding the hostnames of our clients..
  48.  
  49. At the top of the sendmail.sharedsubsidiary.cf file in each client we add  
  50. the 2 lines starting with "#appear to be..." (our server is biosphere):
  51.  
  52. # major relay mailer
  53. DMetherl
  54.  
  55. #appear to be from biosphere
  56. DZbiosphere
  57.  
  58. # major relay host
  59. DRmailhost
  60. CRmailhost
  61.  
  62. Then change line (around 215) from:
  63.  
  64. R$+            $@$1<@$w>            tack on our  
  65. hostname
  66.  
  67. to:
  68.  
  69. R$+            $@$1<@$Z>            tack on our  
  70. hostname
  71.  
  72. Which replaces "w" (self I assume) with the "Z" variable defined above.
  73.  
  74. ---------------------------------------------
  75. > =>11. Adjust our campus domain name server to send mail addressed to any  
  76. of  
  77. > =>the clients to the host instead. Adjust the server's  
  78. sendmail.mailhost.cf  
  79. > =>file to have alias' for each of the clients so the host does not  
  80. reject  
  81. > =>the redirected mail.
  82. > Sure, have all the clients MX to the mailhost.  Easy enough.. but if you  
  83. had  
  84. > successfully masked the clients anyway, then everyone would think that  
  85. mail  
  86. > originates only on the mailhost....
  87.  
  88. True enough. But just in case anyway. Actually this can occur for a while  
  89. after solving the masking problem, since people on the net sometimes still  
  90. have the erroneous address on some mail they received. They then use that  
  91. address to send mail at a much later date.
  92.  
  93. BTW in case anyone is curious how we do the "alias" trick we add the  
  94. following lines at the top of the server's (biosphere)  
  95. /etc/sendmail/sendmail.mailhost.cf file (our clients are gaia and stoma):
  96.  
  97. #create "w file" which are treated as domain name server aliases for  
  98. biosphere
  99. Cwgaia gaia.Stanford.EDU stoma stoma.Stanford.EDU
  100.  
  101.  
  102. ---------------------------------------------
  103. > =>My first question is how many of the step 5 directories need  
  104. Read/Write  
  105. > =>access? For example I know that /usr/spool/mail-->/private/spool/mail  
  106. > =>needs to be writable by the clients. So maybe I need to export  
  107. > =>/private/spool/mail and liberalize the permissions of that path. Also  
  108. for  
  109. > =>example does /NextDeveloper need Read/Write access if you're doing  
  110. > =>NextStep development?
  111. > =>
  112. > Depends on how you do it.  None technically need rw access (except for  
  113. /Users,  
  114. > which is a different case altogether).  All can be happily mounted ro  
  115. (we  
  116. > mount the / partition as ro...) 
  117.  
  118. Doesn't /usr/spool/mail need to be writable? I think so for users who  
  119. prefer to use Unix command line mail (we have some).
  120.  
  121. Whoa. Partition? Who said anything about a partition? We have no  
  122. partitions on our disks. Is that how you are able to export the root as  
  123. read only and yet also export children like "/usr/spool/mail" and "/Users"  
  124. as read/write?
  125.  
  126. BTW the 3.0 installer apparently doesn't give you the ability to create  
  127. partitions when you use its "complete install" mode.
  128.  
  129. ---------------------------------------------
  130. > =>I also know that /usr/lib/sendmail is different on the clients than  
  131. the  
  132. > =>server. How many other such inconsistancies are there?
  133. > No.  sendmail is the same. sendmail.cf is what is different (located in  
  134. > /etc/sendmail)
  135.  
  136. Whoops. You're right. I thought sendmail was compiled using sendmail.cf.  
  137. Wrong. I should have diff'd the client and server /usr/lib/sendmail.
  138.  
  139. ---------------------------------------------
  140. > From experience, it is far easier to manage single mount points than  
  141. multiple  
  142. > mount points.  Instead of exporting individual directories from the  
  143. server,  
  144. > export the / level, then on the clients mount the server:/ as a single  
  145. mount  
  146. > point, in our case we use /NeXTMount and /NeXTMount2 (we have two  
  147. servers).   
  148. > Then make all your links to /NeXTMount (i.e, ln -s  
  149. /NeXTMount/NextDeveloper  
  150. > /NextDeveloper on the client side).  We have also found that the mounts  
  151. should  
  152.  
  153. Refer to my question about /usr/spool/mail and /Users above.
  154.  
  155.  
  156. ---------------------------------------------
  157. > be _hard_ mounts.  Having things in /Net via automounter proved to be  
  158. way too  
  159. > unreliable when the server gets bogged down with NFS requests.  Also, in  
  160. your  
  161.  
  162. What is it with this /Net thing anyway? I want to understand what Next  
  163. intended before I assume it's not for me. I've been studying the way it  
  164. works and it is slightly confusing. I can only surmise that it was  
  165. intended for read only mounts by the following line in /etc/mtab for the  
  166. client stoma (placed there as a consequence of Netinfo setup on the server  
  167. biosphere):
  168.  
  169. stoma:(autonfsmount[87]) "/Net" nfs ro,intr,port=686 0 0
  170.  
  171. Now, when the exported path "biosphere:/Users" is mounted on stoma, it is  
  172. done as follows (also from /etc/mtab on the client):
  173.  
  174. biosphere:/Users "/private/Net/biosphere/Users" nfs rw,bg,intr,noquota,net  
  175. 0 0
  176.  
  177. The server's name is slipped into the path. Netinfo set that up. As part  
  178. of the mount a soft link /Net/biosphere to /private/Net/biosphere is  
  179. created. What causes this to be done? Autonfsmount? Also how does  
  180. /etc/mtab get updated with mounts that I can't find in /etc/fstab? How are  
  181. these /Net mountings (such as /Users) being directed?
  182.  
  183. Now while /Net is read only, which is also obvious from its permissions  
  184. dr-xr-xr-x, I assume that read/write directories (like /Users) can still  
  185. be mounted to it and accessed as read/write by making a soft link /Users  
  186. to /Net/biosphere/Users for example? I get this idea from observing how  
  187. /usr/spool/mail appears to give universal access to the restricted path  
  188. /private/spool/mail.
  189.  
  190. ---------------------------------------------
  191. > /etc/rc, up the # of nfsd processes from 6 to at least 8.
  192.  
  193. Why is this be unreliable? It isn't clear to me that /Users is  
  194. automounted. Just /Net. Why this bump up in processes?
  195.  
  196. ---------------------------------------------
  197. > And to address a particular misconception:
  198. [deleted stuff]...
  199.  
  200. > for the wrong reasons.  NetBoot clients are a _severe_ drain on a  
  201. server's  
  202. > resources.  Try to avoid NetBoot clients if possible.  We have 11 (cubes  
  203. with  
  204. > 40M accelerator drives) out of 50 clients that are net boot.  They are  
  205. mostly  
  206. > serviced by our secondary server which has mucho process cycles to burn,  
  207. but  
  208. > even that server has its performance degraded when the netboots are in  
  209. heavy  
  210. > use...  
  211.  
  212. I don't get it. Why should Netbooting (with local swap disks) be any more  
  213. of a stain on the server than having clients with their own OS and  
  214. exporting root to them? Are you saying that serving the OS kernal is a  
  215. bigger task than serving root? I would think that virtual memory would  
  216. solve that kernal serving problem if the local swap disks were actually  
  217. working.
  218.  
  219. -----------------------------------------------------------------
  220. BTW The new NFS Manager app seems to work great. It took me a while to  
  221. figure out what order it wanted me to do things in, but once I did it  
  222. seemed to greatly simplify the task. I think it may have a great future.
  223.  
  224. -----------------------------------------------------------------
  225. Greg Colello
  226. Carnegie Institution, Department of Plant Biology
  227. Stanford University
  228. gcolello@biosphere.stanford.edu
  229.