home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1993 #3 / NN_1993_3.iso / spool / bit / listserv / biglan / 106 < prev    next >
Encoding:
Text File  |  1993-01-28  |  6.8 KB  |  152 lines

  1. Comments: Gated by NETNEWS@AUVM.AMERICAN.EDU
  2. Path: sparky!uunet!uvaarpa!darwin.sura.net!paladin.american.edu!auvm!SUVM.BITNET!BIG-REQ
  3. Message-ID: <BIG-LAN%93012616533898@SUVM.SYR.EDU>
  4. Newsgroups: bit.listserv.big-lan
  5. Approved: NETNEWS@AUVM.AMERICAN.EDU
  6. Date:         Tue, 26 Jan 1993 15:10:26 EST
  7. Sender:       Campus-Size LAN Discussion Group <BIG-LAN@SUVM.BITNET>
  8. From:         BIG-REQ@SUVM.BITNET
  9. Subject:      BIG-LAN Digest, Volume 5, Number 4, Tuesday, January 26, 1993
  10. Lines: 140
  11.  
  12. BIG-LAN DIGEST           Tuesday, 26 January 1993       Volume 5 : Issue 4
  13.  
  14. Today's Topics:
  15.  
  16.                         running NON gel-filled UTP
  17.                            Routers as backbones
  18.  
  19. Moderated by John Wobus, Syracuse University
  20.  
  21. Relevant addresses:
  22.                                   Internet                BITNET
  23. Submissions:              big-lan@suvm.acs.syr.edu     BIG-LAN@SUVM
  24. Subscriptions:    big-lan-request@suvm.acs.syr.edu     BIG-REQ@SUVM
  25. LISTSERV/Archives:       listserv@suvm.acs.syr.edu    LISTSERV@SUVM
  26. Moderator:                jmwobus@syr.edu              JMWOBUS@SYREDU
  27. Anonymous ftp archives:           syr.edu
  28.  
  29. Note: BIG-LAN is redistributed through many mailing lists at other sites
  30. run by other individuals.  If you subscribe(d) through such a
  31. "redistribution" list, you will need to remember its owner.
  32.  
  33. syr.edu also has a copy of the BIG-LAN "FAQ" memo (answers to frequently
  34. asked questions) under the path information/big-lan/big-lan.faq
  35.  
  36. BIG-LAN is also available via netnews, through newsgroup
  37. bit.listserv.big-lan.
  38.  
  39. ----------------------------------------------------------------------
  40.  
  41. Date: 25 Jan 93 17:41:47 U
  42. From: "Dave Clark" <dave_clark@igppqm.ucsd.edu>
  43. Subject:      running NON gel-filled UTP
  44.  
  45.                       running NON gel-filled UTP level 5 underground
  46. Experts-
  47. My goal is to try to design a point-to-point level 5 UTP copper and fiber
  48. network from approx 100 desktops spread over three new buildings to a single
  49. MDF in a fourth new building via new underground conduit.  The runs would all
  50. be less than 330' from desk to MDF (ah, point to point flexibility) but would
  51. mean having to figure out a way to safely lay non-gel-filled level 5 UTP cable
  52. in an underground conduit system for no more than 250' of each cable's total
  53. length.
  54. My concerns are not only that gel-filled level 5 UTP cable doesn't exist, but
  55. that just the existence of water vapor - over long term - may affect the cable.
  56.  I thought about running it in innerduct and perhaps purging the tubes with
  57. nitrogen, then sealing.  In light of my desire to attempts to keep the design
  58. point-to-point, can anyone offer any insight/wisdom/an alternate solution on
  59. the moisture/gel-filling requirement?
  60. Thanks-
  61. Dave Clark
  62. dclark@ucsd.edu
  63. Institute of Geophysics and Planetary Physics
  64. Scripps Institution of Oceanography
  65. University of California San Diego
  66.  
  67. -------------------------------------------------------
  68.  
  69. Date: Tue, 26 Jan 93 14:16:59 -0500
  70. From: "John M. Wobus" <jmwobus@mailbox.syr.edu>
  71. Subject:      Routers as backbones
  72.  
  73. Dave Williams writes:
  74. >I'd like to hear from any large sites that have routers configured as
  75. >backbones.  There's lots of marketing hype from the router companies
  76. >on why you "need" to do this, but very little in the way of hard info
  77. >on configuration, performance and pitfalls.
  78. >
  79. >Our current configuration consists of about 400 SPARC clients fed by 13 Sun
  80. >4/490 servers. Each server has multiple NC400 Network Co-processors (one per
  81. >client network), 2 IPI controllers and 6-8 IPI disks (some Saber's, some
  82. > Elites)
  83. >
  84. > [lots of text, charts, and ideas deleted: see original posting]
  85.  
  86. Our network is more general-purpose than yours: lots of PCs and
  87. Macintoshes in lots of buildings in addition to workstations.  We went
  88. to a "backbone in a router" strategy simply because it was the least
  89. expensive way to build a routed campus network.
  90.  
  91. We do have some workstations & servers and worry about the same issues
  92. that are worrying you.  You seem to have done more measurement and
  93. experimentation than we have.  Our situation is a bit different: we
  94. have probably fewer workstations than you do and while some are grouped
  95. together, others are scattered all over campus among our PCs and
  96. Macintoshes.  Also, we have a large timesharing Unix system which
  97. shares data and a lot of applications with the workstations.
  98.  
  99. We chose to have one large server for user data (home directories) and
  100. one large server for applications software.  Right now, both the
  101. servers are hanging on a single Ethernet which runs into a router. The
  102. timesharing system is on a different Ethernet, there are a couple of
  103. Ethernets that have between 5 and 20 workstations, and other
  104. workstations are scattered around the campus:
  105.  
  106.      |                  |                 |    |        |        |
  107.      +--Software        |                 |    |WSs     |WSs     |
  108.      |    server        +---Timesharing   |WSs | &      | &      | . . .
  109.      |                  |    system       |    |micros  |micros  |
  110.      +--Data server     |                 |    |        |        |
  111.      |                  |                 |    |        |        |
  112. +----+------------------+-----------------+----+--------+--------+--------+
  113. |                  Router                                                 |
  114. +-------------------------------------------------------------------------+
  115.  
  116. To make this work and to help address the problem of WSs scattered all
  117. over the place, we run no diskless nodes: temp and swap are on a local
  118. disk.
  119.  
  120. We see the Ethernet with the two servers as the bottleneck and plan to
  121. add more Ethernets to the servers without turning on routing.  For
  122. example, there might be a single Ethernet that ties together the
  123. Applications server and Data server with the Timesharing system.  This
  124. would offload some traffic from the router as well as two Ethernets.
  125. An Ethernet could link the servers with group of co-located
  126. workstations in similar fashion.  Another idea is that we could
  127. duplicate the software server for performance if necessary.
  128.  
  129. A practical consideration that has faced us is whether we can use the
  130. dual paths for redundancy, either through the use of manual commands,
  131. or through automatic adjustment of routing.  Since we use the
  132. automounter, we have had to think about how we might accomplish this
  133. and haven't tested a solution to our satisfaction.  In any case, I am
  134. not a big fan of redundant connections: they are necessary in WANs,
  135. they might be useful and manageable on a Campus LAN for tying together
  136. a specific set of routers that use a good, fast-converging routing
  137. protocol, but a Campus LAN with an odd redundant link here and there is
  138. likely to create more problems than it solves.
  139.  
  140. We have dreams of servers on an FDDI backbone with routers linking the
  141. backbone to individual Ethernets.  So far, I have not been too
  142. impressed with FDDI.
  143.  
  144. John Wobus
  145. Syracuse University
  146.  
  147. -------------------------------------------------------
  148.  
  149.  
  150. End of BIG-LAN Digest
  151. *********************
  152.