home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #20 / NN_1992_20.iso / spool / comp / sys / sgi / 13639 < prev    next >
Encoding:
Internet Message Format  |  1992-09-14  |  7.3 KB

  1. Path: sparky!uunet!europa.asd.contel.com!darwin.sura.net!spool.mu.edu!uwm.edu!ogicse!news.u.washington.edu!milton!dittrich
  2. From: dittrich@milton.u.washington.edu (Dave Dittrich)
  3. Newsgroups: comp.sys.sgi
  4. Subject: DiskPOOR rather than diskless client setup (inst question)
  5. Message-ID: <dittrich.716516292@milton>
  6. Date: 15 Sep 92 00:18:12 GMT
  7. Article-I.D.: milton.dittrich.716516292
  8. Sender: news@u.washington.edu (USENET News System)
  9. Organization: University of Washington
  10. Lines: 112
  11.  
  12. We have a lab facility with 20 SGI Indigos and a 4D/35.  The 4D/35 is
  13. set up as an NFS/NIS server, and the Indigos are all mounting portions
  14. of the 1.2GB internal disk for utility software (e.g. GNU stuff) and all
  15. of an external 1.6GB disk for user files.  I want these workstations to
  16. all look the same to users, but to have them tuned for either software
  17. development or interactive use.
  18.  
  19. Since the Indigos were all purchased with the smaller 236MB disk drives,
  20. once IRIX and several software products are loaded on these machines
  21. there is very little space left.  We also have a third party software
  22. product that suggests a repartitioning of the disk drive to increase
  23. swap space to 100MB.  These two demands have exhausted disk space and
  24. preclude any more software (such as Code Vision, Explorer) being
  25. installed on the Indigos.
  26.  
  27. Thus my problem is as follows:  without adding extra disk space to the
  28. Indigos I would like to have some of IRIX and other SGI products be
  29. installed on the server to be used via NFS and the rest to be installed
  30. locally.  I want to do this in such a manner that the Indigo does not
  31. have to be on the network to run the basic operating system (some of them
  32. are moved on occasion to be used in classrooms or lecture halls and I
  33. simply tar the desired programs into a temporary directory on the Indigo
  34. which is booted after a "chkconfig network off" and enabling of the
  35. guest account), but if it is on the network I want all of the products
  36. available on the server (e.g.  the development option, FORTRAN, Code Vision)
  37. to be accessible.  Then as we add more products that are not very high
  38. demand, we can just put them on the server and run them from there.
  39.  
  40. When I pose this question often the first response is, "why don't you
  41. just set the Indigos up as diskless hosts?"  As diskless hosts I would
  42. be forced to have all software installed on the server and NFS mounted
  43. over the net.  This would result in poor performance on the workstations
  44. and higher network load.  The remaining space on the Indigos would also
  45. be wasted since running diskless means that only swap space is local
  46. (is this right? -- I'm not a diskless workstation guru).
  47.  
  48. The next response is, "why not just buy bigger disks?"  With 20 machines,
  49. the cost of increasing available disk space to accommodate everything
  50. would be in the $20,000 to $30,000 range; too much money.  I could
  51. easily justify adding another 1.6GB or 2.0GB disk to the server to
  52. accommodate more NFS exported software, but not to duplicate these same
  53. products on each Indigo.  Short of adding disk space I would have to
  54. further restrict what is installed, making the machines more and more
  55. unique and thus less widely usable and more costly to administer (just
  56. having to have backups becomes a nightmare when you get more than two or
  57. three different configurations--with only one or two basic
  58. configurations I can just upgrade and clone 1 or two machines and do disk
  59. to disk copies to upgrade the remaining machines).
  60.  
  61. My initial concept of a solution to this problem would be to mount a
  62. complete file system from the server that has all of the software that
  63. we are licensed for installed on it.  We would then chose those products
  64. that we wish to be installed on a minimal system (e.g. IRIX, X/GL, the
  65. development option on a few machines, Explorer on a few others, etc.)
  66. and remotely mount the remainder of the authorized software.  This lets
  67. me tune the performance more (development machines should compile code
  68. quicker, machines that run third party molecular modeling software
  69. should do that quicker, etc.) and still make each machine "look" the
  70. same to all users (no special $PATH entries, no special .cshrc/.profile
  71. additions, a small number of consistent NFS mount points).
  72.  
  73. The easy way to accomplish this task would be to have a complete
  74. distribution available via NFS and for every product that is not mounted
  75. locally have its constituent files be links in the standard places
  76. (e.g., /usr/bin, /usr/lib) that point to the NFS mounted complete tree.
  77. This is a hybrid variation of the diskless workstation theme--diskPOOR
  78. would be a better term.
  79.  
  80. I have looked at the way that inst and clinst are used in a diskless
  81. environment and it appears that this is in fact what inst does, but it
  82. does it all on the server assuming that the entire file system will be
  83. mounted from a COMPLETELY diskless host.  What would seem reasonable to
  84. me (as a user, of course, not a vendor) would be for this same mechanism
  85. to be used for configurations where some of the products are installed
  86. locally on the workstation and others are installed remotely on a server.
  87.  
  88. From what I can tell, doing a clinst on the server does indeed produce
  89. links from the share tree (the complete distribution I want to set up)
  90. into the client tree (the same file system structure I desire on each
  91. client, only this one is on the server instead).  My guess is that I MAY
  92. be able to invert the logic of how to use clinst/inst to create the
  93. share tree on the server, mount it on the Indigo and set up a link to
  94. make it look like it is a share tree on the Indigo, make a link from the
  95. client tree on the Indigo that points to the "standard places," and
  96. then just do a client install for those products that I wish to have
  97. remotely mounted rather than locally installed.
  98.  
  99. If I haven't made any gross logical errors (which is quite likely, since
  100. I'm only a human :-) I *THINK* this might work.  I would prefer that SGI
  101. provide a simple way to just create the links for me in the manner I
  102. desire, but since only now are large lab environments like ours becoming
  103. a feasibility I image I am on the "bleeding edge" of this kind of
  104. requirement.  (In fact, several VMS lovers in the department have told
  105. me that what I want to do is "no problemo" with a VAXcluster and is
  106. exactly what the Local Area VAXcluster was designed to do -- what a
  107. great selling point, SGI, to have the same functionality available with
  108. IRIX! [hint, hint] I sure don't want to go back to VMS just to get it :-)
  109.  
  110. If anyone has any suggestions/warnings/etc.  I would be glad to hear
  111. them.  Like I said, I think this kind of configuration will become more
  112. and more prevalent as UNIX workstations decrease in price.  I can
  113. guarantee you that dollars for systems administrators like myself are
  114. not increasing at the same rate, so the administrative overhead will become
  115. a large barrier to increased sales of UNIX workstations unless they can
  116. be made easier to setup and administer in large numbers.  (I have already
  117. heard lots of hot air coming out of Redmond WA about simplified system
  118. administration features of NT/LANman.  Quite frankly I will not waste my
  119. time debating a know problem vs. a non-existent solution, but I do
  120. understand why the hype is flowing so heavily.)  I don't see much rapid
  121. progress towards OSF/1 and DCE/DME either, although I would prefer this
  122. kind of standard solution to a proprietary one such as VAXcluster or
  123. [the premature, not-quite-ready-for-Beta] NT/LANman.
  124.