home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #26 / NN_1992_26.iso / spool / comp / unix / large / 375 < prev    next >
Encoding:
Internet Message Format  |  1992-11-11  |  5.9 KB

  1. Xref: sparky comp.unix.large:375 mi.misc:734
  2. Newsgroups: comp.unix.large,mi.misc
  3. Path: sparky!uunet!destroyer!cs.ubc.ca!newsserver.sfu.ca!sfu.ca!vanepp
  4. From: vanepp@fraser.sfu.ca (Peter Van Epp)
  5. Subject: Re: LISA VI paper availible via anon ftp
  6. Message-ID: <vanepp.721543207@sfu.ca>
  7. Sender: news@sfu.ca
  8. Organization: Simon Fraser University, Burnaby, B.C., Canada
  9. References: <1dmrsdINNcs4@nigel.msen.com> <scs.721401144@hela.iti.org> <vanepp.721411740@sfu.ca> <5c4efaf4.1bc5b@pisa.citi.umich.edu>
  10. Date: Thu, 12 Nov 1992 04:40:07 GMT
  11. Lines: 86
  12.  
  13.     I suppose I should ask if the folks in comp.unix.large would like us
  14. to move this discussion out of here? While we are certainly talking about large
  15. unix systems, it may not be of interest to more than me and the Michigan folks,
  16. and I expect I could talk the UM folks out of a Unix guest account and carry 
  17. on from there.
  18.  
  19. rees@pisa.citi.umich.edu (Jim Rees) writes:
  20.  
  21. >In article <vanepp.721411740@sfu.ca>, vanepp@fraser.sfu.ca (Peter Van Epp) writes:
  22.  
  23. >  ...
  24. >  UM is a lot bigger than SFU, and some of the issues that we managed to slid
  25. >  through (a common uid space for the whole campus for instance) will be 
  26. >  more difficult at UM...
  27.  
  28. >Actually, that's one of the only parts that has been done here.  We've got a
  29. >pretty nifty distributed system for assigning uids called uniqname.  I think
  30. >there's a paper on it somewhere (Usenix?).  Some large fraction of the
  31. >University community now has a unique Unix uid.
  32.  
  33. If I had thought of it, I knew that :-), I was expecting that you might be 
  34. big enough to run out of 65000+ uids. It seems to me that the IFS project
  35. is a fair good step along the path to MTS migration too (although I haven't
  36. heard how it is going lately). We are small enough that we could make do with
  37. a single NFS fileserver to give us central file services (like backup and
  38. restore, although the restore side is a lot less convienient than the MTS
  39. version). There are a number of people (smart ones in my opinion!) that 
  40. want nothing to do with their own Unix box if it means (as it currently
  41. does at SFU) that they have to do their own system administration and 
  42. system backup. They figure that it is better for the university to pay us to 
  43. look after all of that for them. There are also people that are choosing to
  44. do it all for themselves using such central services as they like such
  45. as mail delivery, NetNews services and PD software for the machine types
  46. that we support that we export to the world (readonly) from the file server.
  47.     The major advantage of the setup as it stands now, is that both
  48. services are availible for those that want them (unlike MTS where it was 
  49. all central). The next challange is going to be whether we can provide some
  50. kind of a "consulting" system administration service to make it easier for
  51. people to run machines on their desks. I expect that for that to happen
  52. we will need either AFS or DFS for both security and local caching of files
  53. from a central file server (like IFS) so that dataless machines on peoples
  54. desktops can be supported. If we can't work that out, then there is going
  55. to be a constant war for funding between the people that want central
  56. support (and the departments that are too small to be able to do it for
  57. themselves) and the people that want the money from the computing center
  58. budget to do it themselves (I expect you folks at UM are familiar with this
  59. argument!).
  60.     I suspect that most of the rest of the MTS community will follow us
  61. down the road, after all, many of the ideas that we used where generated
  62. within the MTS community at the various MTS workshops over the last 7 or 8
  63. years while we thought and talked about what should replace MTS. We just got 
  64. the conversion speeded up quite a bit by the computing center being moved 
  65. under a new Vice President (from the VP Research and Development to the 
  66. Associate VP Academic).  The new VP thought that it could be done (and by 
  67. implication, that the people working for him could do it!), and succeeded 
  68. in getting the academic community to buy in by giving the control of the 
  69. project to the academic committees.
  70.     These committees consulted with their peers about what the community
  71. requrements were and then balanced that against the amount of money that they 
  72. had to work with (i.e. the maintance budget for the mainframe). 
  73.     Meanwhile the computing center staff identified what and 
  74. how much was currently being done on the mainframe, and then presented that
  75. data to the committee to decide what should be done about it (where possible
  76. we identified what could be done about it and how much it would cost as well). 
  77. Which in some cases turned out to be that the service would no longer be
  78. offered, either because there was no Unix alternative, or it was too expensive.
  79.     The fact that it was a committee of their peers making these decisions
  80. rather than the computing center was probably the single thing that smoothed
  81. this transition the most. If the computing center had done this, we would of
  82. course been wrong, but as the committees decided it and the faculty had input
  83. into the committee, it is harder to complain (not impossible of course, but
  84. harder)
  85.     I will admit that when this plan was proposed (dump MTS within the 
  86. next nine months, under the direction of a series of academic committees),
  87. I thought it was probably resume time, time to once again watch the fireworks
  88. from afar ... Luckily I held off doing anything much about it (other than
  89. updating my resume of course), since while it was a tremendous amount of
  90. work, it is also very satisfiying to see the results of that work. The
  91. committees were good enough to consult with the computing center for advise
  92. about what to buy (although the final decsions were of course theirs), and
  93. how we thought things should be done. I hope and believe that they are 
  94. reasonably happy (as is the community) with what resulted. The conversion 
  95. went far more smoothly than we had any right to expect.
  96.  
  97. Peter Van Epp / Operations and Technical Support 
  98. Simon Fraser University, Burnaby, B.C. Canada
  99.