home *** CD-ROM | disk | FTP | other *** search
/ Telecom / 1996-04-telecom-walnutcreek.iso / reports / internet.now.and.future < prev    next >
Internet Message Format  |  1995-03-31  |  24KB

  1. Received: from delta.eecs.nwu.edu by MINTAKA.LCS.MIT.EDU id aa05365;
  2.           31 Mar 95 21:48 EST
  3. Received: by delta.eecs.nwu.edu (4.1/SMI-4.0-proxy)
  4.     id AA13256; Fri, 31 Mar 95 16:32:48 CST
  5. Return-Path: <telecom>
  6. Received: by delta.eecs.nwu.edu (4.1/SMI-4.0-proxy)
  7.     id AA13252; Fri, 31 Mar 95 16:32:46 CST
  8. Date: Fri, 31 Mar 95 16:32:46 CST
  9. From: telecom@delta.eecs.nwu.edu (TELECOM Digest (Patrick Townson))
  10. Message-Id: <9503312232.AA13252@delta.eecs.nwu.edu>
  11. To: telecom@eecs.nwu.edu
  12. Subject: Changes to the Internet Going on Now
  13.  
  14. Some thoughts on the massive changes the Internet has undergone over the
  15. past year or so and what lies ahead in the near future. I offer this
  16. special report submitted to the Digest for your consideration this
  17. weekend.
  18.  
  19.  
  20. PAT
  21.  
  22.   Date: Wed, 29 Mar 1995 21:05:04 -0600
  23.   From: breit@MR.Net (Kelly Breit)
  24.   Subject: FYI> Hang onto your Packets: The Information Superhighway 
  25.                 Heads to Valleyfair
  26.  
  27.  
  28. Thought you might find this article interesting. It was written by a
  29. regional ISP.
  30.  
  31.                  ------------------------
  32.  
  33. Hang onto your Packets: The Information Superhighway heads to Valleyfair
  34.  
  35.                                  or
  36.  
  37. Building a high performance computer system without reading the instructions.
  38.  
  39. March 14, 1995
  40.  
  41. Preface:
  42.  
  43. We are now in the midst of an immense transition on the Internet: The
  44. implementation of a new structure that has been in the making for several
  45. years. It was publicly mapped out two years ago with the release of a
  46. solicitation for proposals by the National Science Foundation (NSF
  47. solicitation 93-52) for four separate components of a new American national
  48. backbone architecture. The effects of this transition will be felt over the
  49. next few months and repercussions of it will evolve over the next few years.
  50. There is a potential for profound effects on the immediate needs and
  51. requirements of all MRNet members and subscribers:  namely, stable and
  52. reliable Internet access. Because there may be difficulties and disruptions
  53. in these services and many periods of wild ups and downs (not all that
  54. different from a roller coaster ride at the nearby Valleyfair amusement
  55. park), I am writing to give you some background of how we arrived at this
  56. point and what might be expected in the near term.
  57.  
  58. This description will be part history and part personal observation. It is
  59. not intended to be a comprehensive scholarly description, but rather my
  60. observations based on watching things over the past year or so and some
  61. recent events that have confirmed some of my fears and also my enthusiasms.
  62.  
  63. Ancient and Recent History:
  64.  
  65. The Internet, as we know it up to this point, has a long history (in
  66. technology industry terms), going back to research with the ARPAnet and
  67. introduction of the first early backbone to connect the NSF sponsored
  68. supercomputer centers in the mid 1980s. The core of the national Internet we
  69. are all familiar with had its start with the awarding of a 5-year
  70. cooperative agreement in 1987 to Merit, the Michigan state networking
  71. organization, and its partners MCI and IBM. This was to provide a national
  72. backbone network service with a bandwidth of 1.5Mbit/sec, and several access
  73. points around the country. Merit provided the expertise in managing a
  74. network service, including routing, IBM provided the core backbone routing
  75. equipment and MCI facilities were used for the trunk lines.
  76.  
  77. This system was originally research and education based and mostly higher
  78. education institutions and research corporations were the users. A system of
  79. regional and state networks (like MRNet) grew up around this core and
  80. provided access to the user organizations in their areas. Most all of these
  81. regional networks were nonprofit public-service based organizations that had
  82. grown out of major research universities.
  83.  
  84. The popularity of the system grew at a steady pace, primarily with financial
  85. help from the National Science Foundation, championed by the director of the
  86. NSF Division of Network Communications and Research Infrastructure (DNCRI)
  87. Steve Wolff. DNCRI provided funding to higher education and regional
  88. networks to help with connectivity. The system evolved into an orderly
  89. structure of a high-speed backbone (the NSFNET backbone service), mid-level
  90. networks and campus and corporate networks where the end-users were
  91. attached. Routing and management was centered at Merit and policies and
  92. procedures evolved for the smooth operation and growth of the system.
  93.  
  94. As the popularity of such a system increased, some people saw it would be
  95. worthwhile to provide access to this system as a business opportunity.
  96. Entrepreneurs, with experience gained from regional network operation or
  97. similar networking services provision, established new businesses to get in
  98. on a new opportunity. The first generation of these were Performance Systems
  99. International (PSI) which was spawned out of NYSERNet in New York, and
  100. Alternet, a service of UUNet Technologies in Virginia, which had
  101. considerable experience in UUCP network services among others.
  102.  
  103. In 1991, the Merit/IBM/MCI partnership was reformed with the creation of a
  104. new nonprofit corporation, Advanced Networks and Services (ANS) in which the
  105. founding partners entrusted the operation of the NSFNET backbone service.
  106. ANS formed a for-profit subsidiary, ANS CO+RE (Commercial +
  107. Research&Education) to offer full commercial traffic on its backbone. This
  108. was somewhat controversial, since ANS had the advantage of the NSF subsidy
  109. of about $10 million/year to operate the NSFNET backbone service. The
  110. concept of NSF-sponsored research/educational-only traffic and commercial
  111. traffic running on the same wires was a difficult concept for many to accept
  112. and ANS was considered to have an unfair competitive advantage over PSI,
  113. Alternet and now Sprint (who was also entering into the commercial backbone
  114. service). This resulted in much discussion on several mailing lists,
  115. self-appointed crusaders for justice, an Inspector General report and a
  116. congressional hearing. None of this had much of an effect on anything in the
  117. end, however.
  118.  
  119. Plans were underway at that time to upgrade the NSFNET backbone from its
  120. T1-based (1.5Mbit/sec) bandwidth to a T3-based (45Mbit/sec) service. This
  121. required new designs in routing equipment and interfaces and the transition
  122. was a somewhat lengthy one, stretching over several months with some degree
  123. of technical difficulty, since setting up a T3-based high-performance
  124. backbone service with high levels of production traffic was, at that time,
  125. on the leading edge of technology. There were a number of small disruptions
  126. in service as the network stabilized and Merit and ANS learned how to deal
  127. with these new technologies and rapidly growing levels of participants and
  128. traffic.
  129.  
  130. However, there was a critical advantage to that transition, in that it was
  131. being designed and engineered by people who had considerable experience in
  132. operating such a system, and the new service would be provided by those same
  133. people. There was no handoff to any new organizations. The same group
  134. operated both the T1 and T3 backbones during the transition and the T1
  135. backbone was always there as a fallback (though its ability to actually
  136. handle the traffic load was lacking at that point).
  137.  
  138. As the five year cooperative agreement period advanced to its conclusion,
  139. the NSF engaged a small team to come up with a new agreement or set of
  140. agreements to bring the national backbone system into a new structure. The
  141. NSF observed that its sponsorship of the backbone service, once considered
  142. an area of advanced technology and research, was now operating as a
  143. commodity service with several commercial networks in place. The NSF was set
  144. to move on to other advanced network technology projects and worked to come
  145. up with a way to withdraw from the established networking services and allow
  146. the commercial free market to carry on. However, NSF did have a
  147. responsibility to the educational and research activity it had been
  148. sponsoring for so long, so it did not intend to just walk away. Rather, it
  149. worked to come up with a scheme to facilitate an orderly transition to the
  150. new system.
  151.  
  152. This was a lengthy process and there was considerable public input
  153. solicited, especially from the mid-level network community. This resulted in
  154. the publishing of a solicitation for proposals. It requested the proposals
  155. for four areas that would comprise the new national Internet structure:
  156.  
  157. 1. NAPs - Network Access Points.
  158.  
  159. The NSF proposed to sponsor a number of exchange points where national
  160. backbone providers (also called Network Service Providers or NSPs) could
  161. meet and exchange traffic. The NAPs would fulfill this function, and were
  162. intended to be a level 2 service; i.e. they would operate at the data link
  163. layer and carry the network layer (TCP/IP) traffic that was managed by the
  164. backbone operators who connected there. The idea behind this structure was
  165. to establish a limited number of interconnect points for the commercial
  166. backbones. NSF's stake was to guarantee full connectivity for the research
  167. and education community. Without the sponsorship of a core set of meet
  168. points, backbone providers would likely set up a hodgepodge of bilateral
  169. connect points, potentially resulting in routing chaos. The NAP operator is
  170. to provide the exchange facility. It is up to the individual NSPs that
  171. connect to the NAP to work out bilateral exchange agreements with the other
  172. NAP connectees.
  173.  
  174. 2. Routing Arbiter.
  175.  
  176. This would be an independent organization that would operate route servers
  177. at each of the NAPs. These servers would contain the database of routes to
  178. ease the transfer of traffic among the backbone providers that met at the
  179. NAPs.
  180.  
  181. 3. vBNS - Very-High-Speed Backbone Network Service
  182.  
  183. This would be the one new backbone network that the NSF would sponsor. It
  184. was intended to be a leading-edge research network operating at a minimum
  185. bandwidth of 155Mbit/sec with later upgrade to 622Mbit/sec. There would be a
  186. strict acceptable use policy on this network: It could only be used for
  187. meritorious high-bandwidth research activities. There could be no production
  188. traffic such as general file transfers, remote logins, Web browsing or
  189. email. That was to travel on the commercial backbones.
  190.  
  191. 4. Inter-regional connectivity
  192.  
  193. These would be a series of awards made to the academic regional networks
  194. (the group that built the original Internet). Since access to the
  195. ANS-operated NSFNET had no gateway access charge, there would be a large
  196. expense shock to the regional nets and their clients when they now had to
  197. pay hefty access fees for 45Mbit or above gateways onto the commercial
  198. backbones. The NSF proposed to award the regional nets a subsidy, declining
  199. to zero over a four year period, to ease the transition to higher fee levels
  200. or growth that would support the costs of commercial backbone access.
  201.  
  202. Many organizations spent the summer of 1993 responding to this solicitation
  203. and by August of that year, they were all in. Independent review panels made
  204. recommendations to NSF staff and in February of 1994, the first series of
  205. awards were made:
  206.  
  207. 1. NAPs
  208.  
  209. The NSF awarded 3 priority NAPs. One in the New York area, one in Chicago
  210. and one in the San Francisco Bay area (California NAP)
  211.  
  212. a. The NY NAP was awarded to Sprint, who proposed an interim FDDI ring with
  213.    routers, to be substituted by an ATM switch when they felt the
  214.    technology ready.
  215. b. The Chicago NAP was awarded to Ameritech and Bellcore. Ameritech is the
  216.    Regional Bell Operating Company in the Great Lakes area. Bellcore is the
  217.    research arm of the Regional phone companies. Ameritech proposed to
  218.    install an ATM switch system using an AT&T Globeview-2000 switch.
  219. c. The California NAP was awarded to Pacbell and Bellcore. Pacbell also
  220.    proposed the immediate installation of an ATM switch system using 2
  221.    Newbridge 36150 units.
  222. d. A fourth semi-offical NAP, called the DC NAP also is being put inplaced.
  223.    It is built and operated by Metropolitan Fiber Systems (MFS) in the
  224.    Washington DC area. MFS is evolving its facility from its current
  225.    Ethernet meet point, to an FDDI system.
  226.  
  227. 2. Routing Arbiter
  228.  
  229. This award went to  a joint team of Merit (the routing manager of the
  230. current NSFNET) and the Information Sciences Institute (ISI) of the
  231. University of California. ISI will do most of the work on routing management
  232. systems and Merit will implement the route servers and route server
  233. database.
  234.  
  235. 3. vBNS
  236.  
  237. This award went to MCI, who is implementing this service now as a 155Mbit/s
  238. ATM service. Connections to the five NSF-sponsored supercomputer centers and
  239. the NSF priority NAPs are under way and service is expected to be available
  240. by April 1, 1995.
  241.  
  242. 4. Inter-regional connectivity
  243.  
  244. A series of awards was made to several regional networks who chose Network
  245. Service Providers (NSPs) to carry their traffic to the NAPs and other
  246. backbones. Most (7-8) of the regionals chose InternetMCI. Two or three chose
  247. SprintLink and one chose ANS.
  248.  
  249. Now What:
  250.  
  251. This brings us to where we are today: Smack in the middle of the transition
  252. from the old NSFNET to the new structure. You will notice that this moves
  253. the national structure from a primary R&E T3 backbone with several growing
  254. parallel commercial backbones to a more complex system of multiple
  255. commercial backbones with major exchange points. Previously, the ANS/NSFNET
  256. was really the center of the national Internet. There will no longer be a
  257. single national central backbone; indeed, traffic on the current T3
  258. ANS/NSFNET would soon be reaching the point of saturation. There is no
  259. current production technology that can provide a single replacement network
  260. backbone to carry the required traffic.
  261.  
  262. What, Me Worry?
  263.  
  264. You may notice that this newer complex scheme has no single authority
  265. overseeing the implementation. The success of the construction depends upon
  266. the mutual cooperation of multiple phone companies, (both regional (Regional
  267. Bell Operating Companies or RBOCs) and national long-distance (IntereXchange
  268. Carriers or IXCs), Academic and commercial research institutions, equipment
  269. manufacturers and regional network providers. The National Science
  270. Foundation does not see it as its role to manage the new national Internet
  271. structure. Merit is responsible, via the existing cooperative agreement, for
  272. the smooth running and handoff of the existing system, but not the
  273. management of the building of the new structure.
  274.  
  275. This new system is a massive complex assembly of components and subsystems
  276. that must be put in place by multiple independent organizations, most of
  277. them fierce competitors of each other, on a strict schedule (funding for the
  278. existing NSFNET terminates irrevocably on April 1, 1995) and there is no
  279. Project Manager.
  280.  
  281. There are also potential sources of problems in the implementation of the
  282. components by the major players. The greatest risk comes at the NAPs. A NAP
  283. is really a high-performance computing system, with multiple I/O channels,
  284. sophisticated hardware and software, and a need for operational procedures
  285. that are well planned and understood. I used to be involved in the design
  286. and development of high-performance computing systems and there were a
  287. couple of fundamental axioms you followed if you didn't want to fall flat on
  288. your face:
  289.  
  290. 1. Don't change technology and architecture at the same time. The
  291.    developmental risks of trying to do two major things at once is too
  292.    great.
  293. 2. Build a prototype that you plan to discard. This is required of any major
  294.    systems development project, either hardware or software. The rule is,
  295.    plan to build a prototype, because if you don't, you will build it
  296.    anyway; it will be called version 1.0 or model 100 and will be a lot
  297.    more expensive.
  298.  
  299. Half of the NAP operators violated these axioms. There is a major
  300. architectural change in these new systems. It will take the NAP operators
  301. time to figure out how to manage a major switching system with multiple
  302. high-bandwidth backbone operators depending upon it and pouring traffic into
  303. it. It will also take a while to work this into the grand new national
  304. system. This is the architectural change. The NAP operators may potentially
  305. have to deal with new technologies to implement the high-bandwidth needs of
  306. managing the exchange of such large volumes of IP packets. This is the
  307. technology change. There is also the issue of inexperience. With the
  308. exception of MFS, none of the NAP operators has ever done this kind of thing
  309. before.
  310.  
  311. MFS, in DC, has some experience at managing a meet point. It has operated
  312. the Metropolitan Area Ethernet in the East (MAE-East) for a year or two.
  313. This is an informal exchange point where most of the NSPs meet to exchange
  314. traffic. They have chosen to build on this experience and expand the
  315. technology from Ethernet to FDDI, not a great technological leap. This is a
  316. fairly safe approach.
  317.  
  318. Sprint, in NY, has never operated a proto-NAP, but will learn how. It has
  319. chosen to implement the new architecture, but build a prototype out of
  320. current technology. They will then migrate it to ATM after experience is
  321. gained at both NAP operation and when ATM technology is more proven. They
  322. are building a prototype.
  323.  
  324. Ameritech Advanced Data Services in Chicago had determined that it doesn't
  325. need a prototype and was going to use ATM from the start. Ditto with Pacbell
  326. in California.
  327.  
  328. Well, it turns out that there are problems with both the ATM technology in a
  329. high-bandwidth high-volume production application and with some of the
  330. interface equipment required to be used with the ATM equipment. (Surprise,
  331. surprise - a new unproven technology has some kinks yet.) Ameritech, at the
  332. last minute in January decided to build a prototype after all and ordered an
  333. FDDI ring and some Cisco 7000 routers to build a limited prototype.
  334.  
  335. Pacbell ran into the same problems, but planned to blast on with its initial
  336. plans, convinced that they would make it work in time.
  337.  
  338. OK, Everybody Jump:
  339.  
  340. Beginning in Dec '94 and Jan-Feb '95, the regional networks began to move
  341. their traffic onto their new NSP backbones. The problem was, the NAPs
  342. weren't fully ready. MAE-East, a 10Mbit ethernet, for a while became the
  343. center of the US Internet, since it was the only working meet-point for a
  344. large number of NSPs. Fortunately, MAE-East evolved into MAE-East+, an FDDI
  345. version, more capable of handling the traffic volumes.
  346.  
  347. As of this time (mid March) the Chicago NAP is still not operational. The
  348. Pacbell NAP had already  been written off as a reliable exchange point by
  349. most. The Sprint NAP is up, but not everyone is connected there yet. The key
  350. players, MCI, Sprint and ANS are, however and traffic between the
  351. MCI-connected regionals and Sprint customers is tranversing the Sprint NAP.
  352. Traffic load through it is high because of the lack of operational status of
  353. the other two NAPs.
  354.  
  355. Since, in January, Pacbell was still planning to go ahead with the ATM
  356. system which many were convinced would not work, and not build a prototype,
  357. the manager of the NASA Science Internet decided to build one for them. NASA
  358. is installing a DEC Gigaswitch at its Ames facility and inviting any NSP or
  359. other entity to  wire into it. It will be called MAE-West. This will provide
  360. a critical exchange point for the west coast. Most of the western regional
  361. networks are sending traffic to the east coast for exchange onto other
  362. backbones. Packets from one Seattle company to another can travel to
  363. Washington and back to reach their destination; not an optimal situation.
  364.  
  365. Pressure was brought to bear on Pacbell, and I believe they have agreed to
  366. install FDDI equipment to finally construct a prototype. How this now fits
  367. in with the new MAE-West is unclear.
  368.  
  369. So, When Does the Ride Start? Are we gonna crash?:
  370.  
  371. The transition is underway now. All MRNet traffic now travels via CICNet
  372. infrastructure onto the InternetMCI national T3 backbone. Within a month or
  373. two, our traffic will travel directly via T3 link to InternetMCI. Traffic to
  374. SprintLink, PSI, Alternet or other customers transits the exchange points,
  375. which at the present are either MAE-East+ or the NY NAP. Traffic to
  376. SprintLink customers goes via MAE-East+ because Sprint does not yet have
  377. enough bandwidth in place to connect to its NY NAP, so I've been told.
  378.  
  379. Over the next month or so, we are likely to see the Chicago NAP come up and
  380. the MAE-West facility come up. The Pacbell NAP may also be working within a
  381. short time also. These new exchange points will take a lot of pressure
  382. off the few exchange points now working.
  383.  
  384. The primary reason for this long background and explanation is to let you
  385. know that there are likely to be disruptions in Internet service, either
  386. regional or national, that will affect your operations. It is important that
  387. you realize this and be prepared to cope with it. There are things beyond
  388. MRNet's control that will occur as these systems come together. These
  389. problems will be either partial or total as the systems come online and
  390. start carrying heavier traffic loads. There are likely also to be
  391. disruptions on the major NSP backbones as they become accustomed to carrying
  392. such large production loads. None of the equipment now in place has ever
  393. been put in large-scale use under such heavy traffic loads. The people who
  394. are operating these facilities, in some cases, are new at the job. The
  395. transition is not complete and a lot is yet to come as the NSPs, NAPs,
  396. Routing Arbiter system, etc. gets put into place and shaken out.
  397.  
  398. As you can see, there is an immense potential for disasters all over the
  399. place, with no project manager, NAP operators who are inexperienced, NAP
  400. technology that is not ready for prime-time, NSPs who have varying levels of
  401. experience, network routers that are being stressed into new performance
  402. territory and several other trip points. However, all is not dark. This is,
  403. after all, the Internet - a system that grew up on lack of central authority
  404. and management. Indeed, the fact that we have traveled this far into the
  405. transition with only minor derailments is very encouraging and we will
  406. probably come through in the end with only minor scrapes and bruises.
  407.  
  408. There are a lot of new people, but a lot of the people who built the
  409. Internet as we now know it are still in action and providing expert
  410. guidance. All players from the smallest state networks to the largest phone
  411. companies have a lot at stake in success. The Internet is a critically
  412. important resource and it will be made to work because so many need and want
  413. it to work. The mutually beneficial unmanaged cooperative culture of the
  414. Internet is strong (Use the Force, Luke.) and even the new players are
  415. moving according to its informal ethereal guidelines.
  416.  
  417. Designers and operators have broken the rules about project management and
  418. system development, and the technology is quirky and unpredictable. But it
  419. is somehow coming together. It will likely be a rough and bumpy ride, hence
  420. the whimsy of the title, and we should be prepared for that. It might take
  421. six months to a year to feel a new sense of stability and reliability, but
  422. it will be worth it. This new structure will provide a new basis for the
  423. growth of the Internet that we may not be able to imagine yet. If you are
  424. willing to hang on with us, we'll do our best to get you through.
  425.  
  426. If you have any questions or would like additional background details,
  427. please write or call me directly or any of the MRNet engineering staff.
  428.  
  429. Dennis Fazio, executive director
  430. Minnesota Regional Network
  431. (612) 342-2570
  432. dfazio@MR.Net
  433.  
  434.                      ------------------------
  435.  
  436.  
  437. Forwarded to TELECOM Digest by:
  438.  
  439. Kelly Breit       President and CEO
  440. ITE/Netalliance, Inc.
  441. 6009 Wayzata Blvd., Suite 103
  442. Minneapolis, MN 55416-1623
  443. 612-542-9440    612-542-9341 Fax 
  444.  
  445.