home *** CD-ROM | disk | FTP | other *** search
/ Internet Standards / CD1.mdf / INET / IETF / NETSTAT / 94JUL.MIN < prev    next >
Encoding:
Text File  |  1994-08-16  |  19.1 KB  |  497 lines

  1. Editor's note:  These minutes have not been edited.
  2.  
  3. Date: Sat, 13 Aug 1994 14:22:12 -0500
  4. From: Gene Hastings <hastings@psc.edu>
  5. Subject: Minutes for IETF Network Status Reports.
  6.  
  7.  
  8. GREAT THANKS to Marsha Perrott for chairing  the meeting in my absence and
  9. Rob Reschly for the notes.
  10.  
  11. Speakers:
  12. Scott Bradner <sob@harvard.edu>         CoREN Update
  13. Tim Seaver <tas@ncren.net>              NC-REN (formerly CONCERT)
  14. Susan Hares <skh@merit.edu>             "Transition from NSFnet Backbone
  15.                                               to the NAPland"
  16. Guy Almes <almes@ans.net>               NSFnet statistics
  17. Eric Carroll <eric@utcc.utoronto.ca>    CA*net
  18. Andrew Partan <asp@uunet.uu.net>        MAE-East Evolution
  19.  
  20. Supplements and corrections by:
  21. "Steven J. Richardson" <sjr@merit.edu>
  22. Susan Hares <skh@merit.edu>
  23. Tim Seaver <tas@ncren.net>
  24. Pushpendra Mohta <pushp@cerf.net>
  25. "Martin Lee Schoffstall" <schoff@us.psi.com>
  26.  
  27. Thanks,
  28. Gene
  29.  
  30.   Minutes of the Toronto IETF'30 Netstat Working Group
  31.  ================================================================
  32. submitted to perrott@prep.net
  33. submitted by reschly@arl.mil
  34.  
  35. ================
  36. CoREN:
  37. Scott Bradner
  38.  
  39. The status of the CoREN Network Services Request for Proposals (RFP) process
  40. was briefed.  Scott emphasized one key feature of this RFP:  it will result
  41. in a contract to provide services to the regionals, not in a contract to
  42. build a backbone to interconnect regionals.  Since they are buying a
  43. service, CoREN expects to be one customer among many using the same service.
  44.  
  45. CoREN does not want to have to rely on the NAPs for everything.  CoREN feels
  46. NAPs and RAs are a good idea, but....
  47.  
  48. Scott observed that dollars flow from the NSF to the Regionals to fully
  49. connected network service providers (NSPs) to the NAPs.  The only NSPs
  50. eligible to provide connectivity paid for by NSF funding are those which
  51. connect to the all primary NAPs (NY, IL, CA).
  52.  
  53. The CoREN provider will establish connectivity to all primary NAPs,  MAE-
  54. East, and the CIX.
  55.  
  56. Scott was asked about planned NOC responsibilities:  NOC integration and
  57. coordination is being worked on. Discussion points are relative
  58. responsibilities, e.g. NEARnet vs CoREN provider hand-off.
  59.  
  60. When asked for information on non-CoREN American provider plans, Scott knew
  61. of at least two providers who will be at other NAPS. Scott indicated MCI
  62. will be at the Sprint NAP soon.  Others later.
  63.  
  64. As for the CoREN RFP evaluation, more than one of proposals was pretty close
  65. from a technical perspective, and they were close financially. The selected
  66. provider came out ahead in both measurements and additionally offered to
  67. support a joint technical committee to provide a forum for working issues as
  68. they arise. In particular, early efforts will focus on quantifying QOS
  69. issues as they were intentionally left out of the specification so they can
  70. be negotiated as needed (initially and as the technology changes).
  71.  
  72. The circuits are coming in and routers (Cisco 7000s) are being installed in
  73. the vendor's PoPs this week. First bits will be flowing by 1 August. Line
  74. and router loading and abuse testing is expected to commence by 15 August,
  75. and production testing is should be underway by 15 September. Cutover is
  76. expected before 31 October.
  77.  
  78. Someone noted there may be some sort of problem related to route cache
  79. flushing in the current Cisco code which could impact deployment.
  80.  
  81. ================
  82. NC-REN (formerly CONCERT):
  83. Tim Seaver
  84.  
  85. CONCERT is a statewide video and data network operated by MCNC.
  86.   - primary funding from State of NC
  87.   - primary funding from State of NC
  88.   - currently 111 direct, 32 dialup, and 52 uucp connections
  89.   - 30K+ hosts
  90.   - 4.5Mbps inverse multiplexed 3xDS1 link to ANS pop in Greensboro, NC
  91.  
  92. Replaced by NC-REN
  93.   - expands to North Carolina Research and Education Network
  94.   - DNS name is changing from concert.net to ncren.net
  95.  
  96. Service changes:
  97.   - dropping commercial services
  98.   - concentrating on R&E
  99.   - focus on user help
  100.  
  101. Main reason for name change:
  102.   - British Telecomm and MCI wanted the CONCERT name. MCNC never registered
  103.      CONCERT.
  104.  
  105. In return MCNC management wanted:
  106.   - NC service community more prominent
  107.   - alignment with NREN
  108.   - emphasis on R&E
  109.  
  110. Press release 15 April
  111.   Conversion to ncren.net in progress
  112.   - Domain registered February 1994
  113.   - Local changes simple but time-consuming
  114.   - Remote changes hard and time consuming
  115.   - Targeting 1 October completion fairly sure of conversion by 31 October
  116.   - Decommission CONCERT by 1 January 1995
  117.  
  118. Existing service problems:
  119.   - Help desk overloaded from dialup UNIX shell accounts
  120.   - Commercial providers springing up everywhere
  121.   - The Umstead Act (a NC state law) says state funds cannot subsidize
  122.      competition with commercial services.
  123.   - CONCERT had sufficient non-governmental funding to cover commercial
  124.      services, but accounting practices could not prove separation so they
  125.      just decided to just stop.
  126.  
  127. Service changes
  128.   - Turned over dialup UNIX shell connectivity to Interpath March 1994
  129.   - Planning to stop providing commercial IP and UUCP services by October
  130.      1994
  131.   - Planning to stop providing commercial direct services by 1 January 1995
  132.   - Will continue direct connects, IP, UUCP for government, research and
  133.      education customers.
  134.  
  135. Plans:
  136.   - Pursuing new R&E customers:
  137.       Remaining private colleges
  138.       Community colleges
  139.       K-12 schools
  140.       State and local government
  141.       Libraries
  142.   - Providing security services:
  143.       firewalls, Kerberos, PEM, secure DNS, secure routing.
  144.   - Expanding information services:
  145.       m-bone, NC state government documents, WWW services, and consultation
  146.         -- to provide more access
  147.   - Internet connection will be upgraded to 45Mbps October, 1994
  148.   - Work on a NC Information Highway (NCIH)
  149.  
  150. In response to a question about NC microwave trunking he noted that the
  151. Research Triangle Park area is at 45Mbps and remote areas are at 25Mbps.
  152.  
  153. In passing he noted ATM interaction with research community is an
  154. interesting opportunity, indicating Southern bell GTE and Carolina telephone
  155. working ATM infrastructure
  156.  
  157. In response to a question about the number of sites changing to NC-REN he
  158. stated there were about 20 R&E direct connections which would move, and that
  159. the narrowed focus of the NC-REN would not change the cash flow model
  160. significantly.
  161.  
  162.  
  163. ================
  164. "Transition from NSFnet Backbone to the NAPland":
  165. Sue Hares
  166.  
  167. Available via WWW at URL: http://rrdb.merit.edu
  168.  
  169. If mid-level networks want to send Sue information concerning any  aspects
  170. of plans to transition, please do.  Also indicate what can be published
  171. (this second permission is hard) -- Sue will respect confidentiality
  172. requirements.  They desperately need information about local and regional
  173. plans so they can manage the transition for NSF.
  174.  
  175. NOTE: The following is incomplete because Sue went through it very quickly.
  176. However, as a teaser if nothing else, some of the information on the slides
  177. available at the above URL is included below, as well as most of the
  178. significant discussion....
  179.  
  180. NAP online Dates:
  181.   Sprint NAP  11 August
  182.   PacBell     mid-September
  183.   Ameritech   26 September
  184.  
  185. Currently scheduled NSFnet service turn-down.  Note this does not say
  186. anything about tangible infrastructure changes, only NSFnet service plans.
  187. That is, NSF says they intend to stop paying for the forwarding of traffic
  188. via the indicated ENSSs, no more, no less:
  189.  
  190. Category 1 CoREN (numbers are ENSSs): (first round)
  191.   BARRnet     128
  192.   SURAnet     138 136
  193.   SESQUInet   139
  194.   MIDnet      143
  195.   CICnet      130 129 131
  196.   NYSERnet    133
  197.   NEARnet     134
  198.   NWnet       143
  199.  
  200. In conversation it was reported that PREPnet is not to use PSC connection
  201. for access after 1 October.
  202.  
  203. The real message is that these and following numbers are "official
  204. notification" for management planning.  It was recommended to "flick the
  205. lights" before actual turn-off -- i.e. install the replacement connectivity
  206. and turn off the NSFnet connection to see what breaks.
  207.  
  208. Again Sue pleaded for information as it becomes available and permission to
  209. announce it as soon as possible.
  210.  
  211. Category 2 Regional ENSSs
  212.   Argonne     130
  213.   PREPnet     132
  214.   CA*net      133 143 137
  215.   ALTERnet    134 136
  216.   PSI         136 133 (133 will not be configured here after "the
  217.                        NYSERnet/PSI split is fully consummated.")
  218.   JvNCnet     137
  219.   THEnet      139
  220.  
  221. Category 3 Regional ENSSs
  222.   MICHnet     131
  223.  
  224.  
  225. NOTE: More complete information concerning the above is available online.
  226.  
  227. Sue reiterated that the "decommissionings" are simply organization's status
  228. as recipient of NSFnet services.  It would be a good idea for each affected
  229. organization to talk to any or all service providers between the
  230. organization and the NSFnet for details about other aspects of the
  231. connection.
  232.  
  233. As for the differences between between the categories; category 1 is
  234. primarily CoREN, category 2 is the other regionals, and category 3 includes
  235. supercomputer sites and less firmly planned sites.
  236.  
  237. More information welcomed:
  238.   Anyone got a contract from NSF?
  239.   Anyone want to tell Sue their NSP?
  240.   Got some private announcements, need more.
  241.  
  242. Want information to forward to NSF even if not public.  Will respect
  243. privacy, but important to inform NSF even if caveated by "may change
  244. because..."...
  245.  
  246. When asked about the time-lines for the various categories, it was stated
  247. that NSF wants to have the category 1 sites switched off the NSFnet by 31
  248. October.  Beyond that, it is currently phrased as a best effort task.
  249.  
  250. There was some discussion about CoREN test and transition plans:  Note that
  251. load and trans-NAP plans are still being worked.  There appears to be
  252. significant concern about not taking any backwards steps.
  253.  
  254. One proposed working bilateral testing agreement. This provoked discussion
  255. of a tool called offnet* (and some nice tools Hans-Werner Braun has
  256. written).  Some or all of these tools will be made available by Merit,
  257. however it was stressed that use [of these tools] by the regionals is
  258. intended to instrument local sites, and Merit cannot allow additional
  259. connections to NSFnet backbone monitoring points.
  260.  
  261.  
  262. * [OFFNET was/is a program which tracked/tracks the nets which are
  263. configured but not heard.  This is used by Enke Chen (enke@merit.edu) in
  264. generating reports about the number of configured vs. heard nets (difference
  265. = "silent nets").  There is a constantly-increasing number of nets which
  266. have been configured but are not actually announced to the NSFNET. -SJR
  267.  
  268. Anyone wanting the OFFNET code should contact Susan Hares <skh@merit.edu>
  269. and cc: merit-ie@merit.edu - skh]
  270.  
  271. ================
  272. NSFnet statistics:
  273. Guy Almes
  274.  
  275. Traffic is still doubling!  Traffic topped 70 Gigapackets per month in May
  276. and June.
  277.  
  278. Guy noted that December 94 chart will be interesting -- how to measure, and
  279. what makes sense to measure, new in backboneless regime.  There will be a
  280. transition from traffic into backbone to traffic into multiple whatevers.
  281. Should any resulting numbers be counted? It was observed that it would be
  282. hard to avoid double counting in such an environment.
  283.  
  284. The general consensus was that there is a need to pick an appropriate set of
  285. collection points:  e.g. transition from BARRnet to/from NSF to BARRnet
  286. to/from CoREN provider.
  287.  
  288. One position contends that we really want customer to BARRnet data rather
  289. than BARRnet to CoREN provider. However it was observed that this is not
  290. tractable or trackable.
  291.  
  292. Other statistics show:
  293.   952 Aggregates currently configured in AS690
  294.   751 announced to AS690
  295.   6081 class based addresses represented
  296.  
  297. There were two additional slides depicting: 1)IBGP stability: solid line is
  298. percentage of IBGP sessions which have transitions during the measurement
  299. intervals, and 2) External route stability: solid line is external peers.
  300.  
  301. Data collection is once again in place on backbone and has been operational
  302. since 1 June.
  303.  
  304. In conversation, it was noted that the Route Servers will be gathering
  305. statistics from the NAPs.  The Route Servers will be gated engines and will
  306. be located at the NAPs
  307.  
  308.  
  309. UPDATES:
  310. ANS router software activity
  311.   Software enhancements:
  312.       RS960 buffering and queueing microcode updated
  313.        - increased number of buffers, also went from max MTU sized buffers
  314.           to 2+kB chainable buffers (max FDDI will fit in two buffers with
  315.           room to spare.
  316.        - dynamic buffer allocation within card
  317.        -- two together really improve dynamic burst performance
  318.       Design for improved end-to-end performance
  319.        - Based on Van Jacobson and Floyd random early drop work.
  320.        - End-to-end performance is limited by bandwidth delay product
  321.        - current protocols deal gracefully with a single packet drop but
  322.           multiple packets dropped push algorithm into slow start.  With
  323.           "current" van Jacobson code, even brief congestion in the path
  324.           will cause things to back off under even low end loadings.
  325.  
  326. Work shows that Random Early Drop slows things just enough to avoid
  327. congestion without putting particular flows into slow-start.
  328.  
  329. In passing, Guy noted that he figures the speed of light as roughly 125
  330. mi/ms on general phone company stuff.
  331.  
  332. The conditions and results were summarized on two slides:
  333.  
  334.   + Single flow Van Jacobson random early drop:
  335.       41Mbps at 384k MTU cross-country (PSC to SDSC?)
  336.       This code (V4.20L++) is likely to be deployed in a month or so.
  337.  
  338. By way of comparison Maui Supercomputer center to SDSC was 31Mbps using an
  339. earlier version of code with 35 buffers.  Windowed ping with the same code
  340. did 41Mbps.
  341.  
  342.   + Four flow Van Jacobson random early drop:
  343.       42Mbps at 96kB MTU.
  344.       All the numbers are with full forwarding tables in the RS960s
  345.  
  346. In other news...:
  347.   + SLSP support for broadcast media completed
  348.   + Eliminated fake AS requirement for multiply connected peers.
  349.   + Implemented IBGP server.
  350.  
  351. Pensalken (the SPRINT NAP) is a FDDI in a box.
  352.  
  353. ================
  354. CA*net:
  355. Eric Carroll
  356.  
  357. All but three backbone links are now at T1 and there are dual T1s to each US
  358. interconnect.
  359.  
  360. Pulled in Canadian government networks.  Using Ciscos to build network.
  361.  
  362. Still seeing 8-10x US costs for service.  CA*net will grow to DS3 when they
  363. can get it  and afford it(!).
  364.  
  365. Numbers on map slide are percentage utilization.  Note that 12 routers were
  366. installed between mid-March and the end of April and these are early
  367. numbers.  Note that the British Columbia to NWnet link T1 went to saturation
  368. in 5 hours. Appears to be due to pent up demand, not particular users or
  369. programs.
  370.  
  371. 7010 roll-out had a lot of support from Cisco.  Ran into some problems with
  372. FT1 lines in queuing discipline.
  373.  
  374. Still doing NNSTAT on an RT for now, but working with a RMON vendor to get
  375. stuff for new implementation.
  376.  
  377. When asked about using inverse multiplexors for increased bandwidth, Eric
  378. indicated CA*net was currently just using Cisco's load sharing to US,
  379. however they would be considered when needed.
  380.  
  381. A question was raised about CA*net connectivity plans in light of the
  382. impending NSF transition.  Currently international connectivity is just to
  383. US, specifically to the US R&E community.  There is some interest and
  384. discussions for other international connectivity, but cost and other factors
  385. are an issue.
  386.  
  387. CA*net hopes to place NSF connectivity order by next week.
  388.  
  389. Biggest concern is the risk of becoming disconnected from what Eric termed
  390. the R&E affinity group.
  391.  
  392. CA*net currently carries ~1000 registered ~900 active networks in CA*net.
  393.  
  394. CA*net is not AUP free, instead it is based on a transitive AUP "consenting
  395. adults" model. If two Canadian regionals or providers agree to exchange a
  396. particular kind of traffic then CA*net has no problem.
  397.  
  398. CA*net just joined CIX which prompted a question as to whether Onet is a CIX
  399. member.  In response Eric characterized CA*net as a cooperative transit
  400. backbone for regional members.  Therefore CA*net joining CIX is somewhat
  401. meaningless in and of itself, and, by implication, is only meaningful in the
  402. context of the regionals and providers interacting via CA*net.
  403.  
  404. In response to another question, Eric indicated that CA*net is still seeing
  405. growth.
  406.  
  407.  
  408. ================
  409. MAE-East Evolution:
  410. Andrew Partan
  411.  
  412. (MAE == Metropolitan Area Ethernet)
  413.  
  414. Andrew volunteered to conduct an impromptu discussion of MAE-EAST plans
  415.  
  416. There is an effort underway to install a FDDI ring at the MFS Gallows Rd PoP
  417. and connect that ring to MAE-East using a Cisco Catalyst box.
  418.  
  419. MAE-East folks are experimenting with GDC Switches
  420.  
  421. Is there a transition from MAE-East to the SWAB?:  Unknown
  422.  
  423. (SWAB == SMDS Washington [DC] Area Backbone)
  424.  
  425. MFS DC NAP is proposing to implement using NetEdge equipment.
  426.  
  427. Any MAE-East plans to connect to MFS NAP?:  Unknown.
  428.  
  429. ALTERnet is currently using a Cisco Catalyst box and is happy.
  430.  
  431. Time-frame for implementing MAE-East FDDI?:  Not yet, still need management
  432. approval.  Hope to have a start in next several weeks..
  433.  
  434. Those interested in MAE-EAST goings-on and discussions with members should
  435. join the mailing list MAE-East[-request]@uunet.uu.net
  436.  
  437. For what it may be worth, they "had to interrupt MAE-LINK for 5 seconds this
  438. week to attach an MCI connection".
  439.  
  440. In summary (to a question) one would contract with MFS for connectivity to
  441. MAE-East.  Then one would need to individually negotiate pairwise
  442. arrangements with other providers with which there was an interest in
  443. passing traffic.  As far is as known there are no settlements currently, but
  444. cannot say for sure.
  445.  
  446. ================
  447. Random Bits:
  448.  
  449. SWAB (SMDS Washington Area Backbone): In response to point of confusion, it
  450. was stated that the SWAB bilateral agreement template is just a sample, not
  451. a requirement
  452.  
  453. CIX:  The CIX router is getting a T3 SMDS connection into the PacBell
  454. fabric.  ALTERnet and PSI are doing so too.  CERFnet currently is on.
  455.  
  456. Noted in passing: Each SMDS access point can be used privately, to support
  457. customers, to enhance backbone, etc....  This could have serious
  458. implications for other provider agreements.
  459.  
  460. CERFnet:  Pushpendra Mohta is reported to be happy, but the group understood
  461. that most CERFnet CIRs are at 4Mbps over T3 entrance facilities.  PacBell
  462. was reportedly running two 2OOMbps backplane capacity switches
  463. interconnected with single T3.  Planning to increase provisioning -- already
  464. have a lot of demand.
  465.  
  466. [Pushpendra adds: Pacbell operates two switched in the Bay Area. One in San
  467. Francisco and one in Santa Clara.  The former is practically full , and the
  468. latter is brand new. All new T3 orders will end up on the Santa Clara
  469. switch. It IS true that the backplane of the switch is only 200Mbps.
  470.  
  471. Because the Santa Clara switch is new, the switches are interconnected by
  472. only one T3 link. However, the switches are capable of more than one T3 link
  473. and the product manager at Pacbell (Dick Shimizu ) has assured me that
  474. enough demand would warrant a new T3 between the switches etc.
  475.  
  476. Providers thinking of buying T3 level services should specify the Santa
  477. Clara switch although it should end up being used anyway. I have alerted the
  478. Product manager and he will ensure that T3 circuits are on the SC switch.
  479.  
  480. A new switch is being planned for early next year, although enough demand
  481. will accelerate that deployment as well.
  482. ]
  483.  
  484. [Addendum from PSI:
  485. In addition, PSI installed an SMDS switch in Santa Clara several weeks ago
  486. which has a gigabit backplane.
  487.  
  488. So, if there is a problem with CIX SMDS throughput there is a "net", using
  489. PtP T3's and mutliple SNI's on the CIX (PacBell) SMDS connection, remapped
  490. into another (PSI's) switch.
  491.  
  492. Marty
  493. ]
  494.  
  495.  
  496.  
  497.