home *** CD-ROM | disk | FTP | other *** search
/ Internet Info 1997 December / Internet_Info_CD-ROM_Walnut_Creek_December_1997.iso / infoguide / about-internet / history / aboba-cerf < prev    next >
Text File  |  1997-12-01  |  30KB  |  574 lines

  1.  
  2. How the Internet Came to Be
  3.  
  4. Vinton Cerf, as told to Bernard Aboba
  5.  
  6. Copyright (C) 1993 Vinton Cerf. All rights reserved. May be
  7. reproduced in any medium for noncommercial purposes.
  8.  
  9. This article appears in "The Online User's Encyclopedia," 
  10. by Bernard Aboba, Addison-Wesley, November 1993, 
  11. ISBN 0-201-62214-9
  12.  
  13.  
  14. The birth of the ARPANET
  15.  
  16. My involvement began when I was at UCLA doing graduate work from
  17. 1967 to 1972. There were several people at UCLA at the time
  18. studying under Jerry Estrin, and among them was Stephen Crocker.
  19. Stephen was an old high-school friend, and when he found out
  20. that I wanted to do graduate work in computer science, he
  21. invited me to interview at UCLA.
  22.  
  23. When I started graduate school, I was originally looking at
  24. multiprocessor hardware and software. Then a Request For
  25. Proposal came in from the Defense Advanced Research Projects
  26. Agency, DARPA. The proposal was about packet switching, and it
  27. went along with the packet-switching network that DARPA was
  28. building.
  29.  
  30. Several UCLA faculty were interested in the RFP. Leonard
  31. Kleinrock had come to UCLA from MIT, and he brought with him his
  32. interest in that kind of communications environment. His thesis
  33. was titled Communication Networks: Stochastic Flow and Delay,
  34. and he was one of the earliest queuing theorists to examine what
  35. packet-switch networking might be like. As a result, the UCLA
  36. people proposed to DARPA to organize and run a Network
  37. Measurement Center for the ARPANET project.
  38.  
  39. This is how I wound up working at the Network Measurement Center
  40. on the implementation of a set of tools for observing the
  41. behavior of the fledgling ARPANET. The team included Stephen
  42. Crocker; Jon Postel, who has been the RFC editor from the
  43. beginning; Robert Braden, who was working at the UCLA computer
  44. center; Michael Wingfield, who built the first interface to the
  45. Internet for the Xerox Data System Sigma 7 computer, which had
  46. originally been the Scientific Data Systems (SDS) Sigma 7; and
  47. David Crocker, who became one of the central figures in
  48. electronic mail standards for the ARPANET and the Internet. Mike
  49. Wingfield built the BBN 1822 interface for the Sigma 7, running
  50. at 400 Kbps, which was pretty fast at the time.
  51.  
  52. Around Labor Day in 1969, BBN delivered an Interface Message
  53. Processor (IMP) to UCLA that was based on a Honeywell DDP 516,
  54. and when they turned it on, it just started running. It was
  55. hooked by 50 Kbps circuits to two other sites (SRI and UCSB) in
  56. the four-node network: UCLA, Stanford Research Institute (SRI),
  57. UC Santa Barbara (UCSB), and the University of Utah in Salt Lake
  58. City.
  59.  
  60. We used that network as our first target for studies of network
  61. congestion. It was shortly after that I met the person who had
  62. done a great deal of the architecture: Robert Kahn, who was at
  63. BBN, having gone there from MIT. Bob came out to UCLA to kick
  64. the tires of the system in the long haul environment, and we
  65. struck up a very productive collaboration. He would ask for
  66. software to do something, I would program it overnight, and we
  67. would do the tests.
  68.  
  69. One of the many interesting things about the ARPANET packet
  70. switches is that they were heavily instrumented in software, and
  71. additional programs could be installed remotely from BBN for
  72. targeted data sampling. Just as you use trigger signals with
  73. oscilloscopes, the IMPs could trigger collection of data if you
  74. got into a certain state. You could mark packets and when they
  75. went through an IMP that was programmed appropriately, the data
  76. would go to the Network Measurement Center.
  77.  
  78. There were many times when we would crash the network trying to
  79. stress it, where it exhibited behavior that Bob Kahn had
  80. expected, but that others didn't think could happen. One such
  81. behavior was reassembly lock-up. Unless you were careful about
  82. how you allocated memory, you could have a bunch of partially
  83. assembled messages but no room left to reassemble them, in which
  84. case it locked up. People didn't believe it could happen
  85. statistically, but it did. There were a bunch of cases like
  86. that.
  87.  
  88. My interest in networking was strongly influenced by my time at
  89. the Network Measurement Center at UCLA.
  90.  
  91. Meanwhile, Larry Roberts had gone from Lincoln Labs to DARPA,
  92. where he was in charge of the Information Processing Techniques
  93. Office. He was concerned that after building this network, we
  94. could do something with it. So out of UCLA came an initiative to
  95. design protocols for hosts, which Steve Crocker led.
  96.  
  97. In April 1969, Steve issued the very first Request For Comment.
  98. He observed that we were just graduate students at the time and
  99. so had no authority. So we had to find a way to document what we
  100. were doing without acting like we were imposing anything on
  101. anyone. He came up with the RFC methodology to say, "Please
  102. comment on this, and tell us what you think."
  103.  
  104. Initially, progress was sluggish in getting the protocols
  105. designed and built and deployed. By 1971 there were about
  106. nineteen nodes in the initially planned ARPANET, with thirty
  107. different university sites that ARPA was funding. Things went
  108. slowly because there was an incredible array of machines that
  109. needed interface hardware and network software. We had Tenex
  110. systems at BBN running on DEC-10s, but there were also PDP8s,
  111. PDP-11s, IBM 360s, Multics, Honeywell... you name it. So you had
  112. to implement the protocols on each of these different
  113. architectures. In late 1971, Larry Roberts at DARPA decided that
  114. people needed serious motivation to get things going. In October
  115. 1972 there was to be an International Conference on Computer
  116. Communications, so Larry asked Bob Kahn at BBN to organize a
  117. public demonstration of the ARPANET.
  118.  
  119. It took Bob about a year to get everybody far enough along to
  120. demonstrate a bunch of applications on the ARPANET. The idea was
  121. that we would install a packet switch and a Terminal Interface
  122. Processor or TIP in the basement of the Washington Hilton Hotel,
  123. and actually let the public come in and use the ARPANET, running
  124. applications all over the U.S.
  125.  
  126. A set of people who are legendary in networking history were
  127. involved in getting that demonstration set up. Bob Metcalfe was
  128. responsible for the documentation; Ken Pogran who, with David
  129. Clark and Noel Chiappa, was instrumental in developing an early
  130. ring-based local area network and gateway, which became Proteon
  131. products, narrated the slide show; Crocker and Postel were
  132. there. Jack Haverty, who later became chief network architect of
  133. Oracle and was an MIT undergraduate, was there with a holster
  134. full of tools. Frank Heart who led the BBN project; David
  135. Walden; Alex McKenzie; Severo Ornstein; and others from BBN who
  136. had developed the IMP and TIP.
  137.  
  138. The demo was a roaring success, much to the surprise of the
  139. people at AT&T who were skeptical about whether it would work.
  140. At that conference a collection of people convened: Donald
  141. Davies from the UK, National Physical Laboratory, who had been
  142. doing work on packet switching concurrent with DARPA; Remi
  143. Despres who was involved with the French Reseau Communication
  144. par Paquet (RCP) and later Transpac, their commercial X.25
  145. network; Larry Roberts and Barry Wessler, both of whom later
  146. joined and led BBN's Telenet; Gesualdo LeMoli, an Italian
  147. network researcher; Kjell Samuelson from the Swedish Royal
  148. Institute; John Wedlake from British Telecom; Peter Kirstein
  149. from University College London; Louis Pouzin who led the
  150. Cyclades/Cigale packet network research program at the Institute
  151. Recherche d'Informatique et d'Automatique (IRIA, now INRIA, in
  152. France). Roger Scantlebury from NPL with Donald Davies may also
  153. have been in attendance. Alex McKenzie from BBN almost certainly
  154. was there.
  155.  
  156. I'm sure I have left out some and possibly misremembered others.
  157. There were a lot of other people, at least thirty, all of whom
  158. had come to this conference because of a serious academic or
  159. business interest in networking.
  160.  
  161. At the conference we formed the International Network Working
  162. Group or INWG. Stephen Crocker, who by now was at DARPA after
  163. leaving UCLA, didn't think he had time to organize the INWG, so
  164. he proposed that I do it.
  165.  
  166. I organized and chaired INWG for the first four years, at which
  167. time it was affiliated with the International Federation of
  168. Information Processing (IFIP). Alex Curran, who was president of
  169. BNR, Inc., a research laboratory of Bell Northern Research in
  170. Palo Alto, California, was the U.S. representative to IFIP
  171. Technical Committee 6. He shepherded the transformation of the
  172. INWG into the first working group of 6, working group 6.1 (IFIP
  173. WG 6.1).
  174.  
  175. In November 1972, I took up an assistant professorship post in
  176. computer science and electrical engineering at Stanford. I was
  177. one of the first Stanford acquisitions who had an interest in
  178. computer networking. Shortly after I got to Stanford, Bob Kahn
  179. told me about a project he had going with SRI International,
  180. BBN, and Collins Radio, a packet radio project. This was to get
  181. a mobile networking environment going. There was also work on a
  182. packet satellite system, which was a consequence of work that
  183. had been done at the University of Hawaii, based on the
  184. ALOHA-Net, done by Norman Abramson, Frank Kuo, and Richard
  185. Binder. It was one of the first uses of multiaccess channels.
  186. Bob Metcalfe used that idea in designing Ethernet before
  187. founding 3COM to commercialize it.
  188.  
  189.  
  190. The birth of the Internet
  191.  
  192. Bob Kahn described the packet radio and satellite systems, and
  193. the internet problem, which was to get host computers to
  194. communicate across multiple packet networks without knowing the
  195. network technology underneath. As a way of informally exploring
  196. this problem, I ran a series of seminars at Stanford attended by
  197. students and visitors. The students included Carl Sunshine, who
  198. is now at Aerospace Corporation running a laboratory and
  199. specializing in the area of protocol proof of correctness;
  200. Richard Karp, who wrote the first TCP code and is now president
  201. of ISDN technologies in Palo Alto. There was Judy Estrin, a
  202. founder of Bridge Communications, which merged with 3COM, and is
  203. now an officer at Network Computing Devices (NCD), which makes X
  204. display terminals. Yogen Dalal, who edited the December 1974
  205. first TCP specification, did his thesis work with this group,
  206. and went on to work at PARC where he was one of the key
  207. designers of the Xerox Protocols. Jim Mathis, who was involved
  208. in the software of the small-scale LSI-11 implementations of the
  209. Internet protocols, went on to SRI International and then to
  210. Apple where he did MacTCP. Darryl Rubin went on to become one of
  211. the vice presidents of Microsoft. Ron Crane handled hardware in
  212. my Stanford lab and went on to key positions at Apple. John
  213. Shoch went on to become assistant to the president of Xerox and
  214. later ran their System Development Division. Bob Metcalfe
  215. attended some of the seminars as well. Gerard Lelann was
  216. visiting from IRIA and the Cyclades/Cigale project, and has gone
  217. on to do work in distributed computing. We had Dag Belsnes from
  218. University of Oslo who did work on the correctness of protocol
  219. design; Kuninobu Tanno (from Tohoku University); and Jim Warren,
  220. who went on to found the West Coast Computer Faire. Thinking
  221. about computer networking problems has had a powerful influence
  222. on careers; many of these people have gone on to make major
  223. contributions.
  224.  
  225. The very earliest work on the TCP protocols was done at three
  226. places. The initial design work was done in my lab at Stanford.
  227. The first draft came out in the fall of 1973 for review by INWG
  228. at a meeting at University of Sussex (Septemer 1973). A paper by
  229. Bob Kahn and me appeared in May 1974 in IEEE Transactions on
  230. Communications and the first specification of the TCP protocol
  231. was published as an Internet Experiment Note in December 1974.
  232. We began doing concurrent implementations at Stanford, BBN, and
  233. University College London. So effort at developing the Internet
  234. protocols was international from the beginning. In July 1975,
  235. the ARPANET was transferred by DARPA to the Defense
  236. Communications Agency (now the Defense Information Systems
  237. Agency) as an operational network.
  238.  
  239. About this time, military security concerns became more critical
  240. and this brought Steve Kent from BBN and Ray McFarland from DoD
  241. more deeply into the picture, along with Steve Walker, then at
  242. DARPA.
  243.  
  244. At BBN there were two other people: William Plummer and Ray
  245. Tomlinson. It was Ray who discovered that our first design
  246. lacked and needed a three-way handshake in order to distinguish
  247. the start of a new TCP connection from old random duplicate
  248. packets that showed up later from an earlier exchange. At
  249. University College London, the person in charge was Peter
  250. Kirstein. Peter had a lot of graduate and undergraduate students
  251. working in the area, using a PDP-9 machine to do the early work.
  252. They were at the far end of a satellite link to England.
  253.  
  254. Even at the beginning of this work we were faced with using
  255. satellite communications technology as well as ARPANET and
  256. packet radio. We went through four iterations of the TCP suite,
  257. the last of which came out in 1978.
  258.  
  259. The earliest demonstration of the triple network Internet was in
  260. July 1977. We had several people involved. In order to link a
  261. mobile packet radio in the Bay Area, Jim Mathis was driving a
  262. van on the San Francisco Bayshore Freeway with a packet radio
  263. system running on an LSI-11. This was connected to a gateway
  264. developed by .i.Internet: history of: Strazisar, Virginia;
  265. Virginia Strazisar at BBN. Ginny was monitoring the gateway and
  266. had artificially adjusted the routing in the system. It went
  267. over the Atlantic via a point-to-point satellite link to Norway
  268. and down to London, by land line, and then back through the
  269. Atlantic Packet Satellite network (SATNET) through a Single
  270. Channel Per Carrier (SCPC) system, which had ground stations in
  271. Etam, West Virginia, Goonhilly Downs England, and Tanum, Sweden.
  272. The German and Italian sites of SATNET hadn't been hooked in
  273. yet. Ginny was responsible for gateways from packet radio to
  274. ARPANET, and from ARPANET to SATNET. Traffic passed from the
  275. mobile unit on the Packet Radio network across the ARPANET over
  276. an internal point-to-point satellite link to University College
  277. London, and then back through the SATNET into the ARPANET again,
  278. and then across the ARPANET to the USC Information Sciences
  279. Institute to one of their DEC KA-10 (ISIC) machines. So what we
  280. were simulating was someone in a mobile battlefield environment
  281. going across a continental network, then across an
  282. intercontinental satellite network, and then back into a
  283. wireline network to a major computing resource in national
  284. headquarters. Since the Defense Department was paying for this,
  285. we were looking for demonstrations that would translate to
  286. militarily interesting scenarios. So the packets were traveling
  287. 94,000 miles round trip, as opposed to what would have been an
  288. 800-mile round trip directly on the ARPANET. We didn't lose a
  289. bit!
  290.  
  291. After that exciting demonstration, we worked very hard on
  292. finalizing the protocols. In the original design we didn't
  293. distinguish between TCP and IP; there was just TCP. In the
  294. mid-1970s, experiments were being conducted to encode voice
  295. through a packet switch, but in order to do that we had to
  296. compress the voice severely from 64 Kbps to 1800 bps. If you
  297. really worked hard to deliver every packet, to keep the voice
  298. playing out without a break, you had to put lots and lots of
  299. buffering in the system to allow sequenced reassembly after
  300. retransmissions, and you got a very unresponsive system. So
  301. Danny Cohen at ISI, who was doing a lot of work on packet voice,
  302. argued that we should find a way to deliver packets without
  303. requiring reliability. He argued it wasn't useful to retransmit
  304. a voice packet end to end. It was worse to suffer a delay of
  305. retransmission.
  306.  
  307. That line of reasoning led to separation of TCP, which
  308. guaranteed reliable delivery, from IP. So the User Datagram
  309. Protocol (UDP) was created as the user-accessible way of using
  310. IP. And that's how the voice protocols work today, via UDP.
  311.  
  312. Late in 1978 or so, the operational military started to get
  313. interested in Internet technology. In 1979 we deployed packet
  314. radio systems at Fort Bragg, and they were used in field
  315. exercises. The satellite systems were further extended to
  316. include ground stations in Italy and Germany. Internet work
  317. continued in building more implementations of TCP/IP for systems
  318. that weren't covered. While still at DARPA, I formed an Internet
  319. Configuration Control Board chaired by David Clark from MIT to
  320. assist DARPA in the planning and execution of the evolution of
  321. the TCP/IP protocol suite. This group included many of the
  322. leading researchers who contributed to the TCP/IP development
  323. and was later transformed by my successor at DARPA, Barry
  324. Leiner, into the Internet Activities Board (and is now the
  325. Internet Architecture Board of the Internet Society). In 1980,
  326. it was decided that TCP/IP would be the preferred military
  327. protocols.
  328.  
  329. In 1982 it was decided that all the systems on the ARPANET would
  330. convert over from NCP to TCP/IP. A clever enforcement mechanism
  331. was used to encourage this. We used a Link Level Protocol on the
  332. ARPANET; NCP packets used one set of one channel numbers and
  333. TCP/IP packets used another set. So it was possible to have the
  334. ARPANET turn off NCP by rejecting packets sent on those specific
  335. channel numbers. This was used to convince people that we were
  336. serious in moving from NCP to TCP/IP. In the middle of 1982, we
  337. turned off the ability of the network to transmit NCP for one
  338. day. This caused a lot of hubbub unless you happened to be
  339. running TCP/IP. It wasn't completely convincing that we were
  340. serious, so toward the middle of fall we turned off NCP for two
  341. days; then on January 1, 1983, it was turned off permanently.
  342. The guy who handled a good deal of the logistics for this was
  343. Dan Lynch; he was computer center director of USC ISI at the
  344. time. He undertook the onerous task of scheduling, planning, and
  345. testing to get people up and running on TCP/IP. As many people
  346. know, Lynch went on to found INTEROP, which has become the
  347. premier trade show for presenting Internet technology.
  348.  
  349. In the same period there was also an intense effort to get
  350. implementations to work correctly. Jon Postel engaged in a
  351. series of Bake Offs, where implementers would shoot kamikaze
  352. packets at each other. Recently, FTP Software has reinstituted
  353. Bake Offs to ensure interoperability among modern vendor
  354. products.
  355.  
  356. This takes us up to 1983. 1983 to 1985 was a consolidation
  357. period. Internet protocols were being more widely implemented.
  358. In 1981, 3COM had come out with UNET, which was a UNIX TCP/IP
  359. product running on Ethernet. The significant growth in Internet
  360. products didn't come until 1985 or so, where we started seeing
  361. UNIX and local area networks joining up. DARPA had invested time
  362. and energy to get BBN to build a UNIX implementation of TCP/IP
  363. and wanted that ported into the Berkeley UNIX release in v4.2.
  364. Once that happened, vendors such as Sun started using BSD as the
  365. base of commercial products.
  366.  
  367. The Internet takes off
  368.  
  369. By the mid-1980s there was a significant market for
  370. Internet-based products. In the 1990s we started to see
  371. commercial services showing up, a direct consequence of the
  372. NSFNet initiative, which started in 1986 as a 56 Kbps network
  373. based on LSI-11s with software developed by David Mills, who was
  374. at the University of Delaware. Mills called his NSFNet nodes
  375. "Fuzzballs."
  376.  
  377. The NSFNet, which was originally designed to hook supercomputers
  378. together, was quickly outstripped by demand and was overhauled
  379. for T1. IBM, Merit, and MCI did this, with IBM developing the
  380. router software. Len Bozack was the Stanford student who started
  381. Cisco Systems. His first client: Hewlett-Packard. Meanwhile
  382. Proteon had gotten started, and a number of other routing
  383. vendors had emerged. Despite having built the first gateways
  384. (now called routers), BBN didn't believe there was a market for
  385. routers, so they didn't go into competition with Wellfleet, ACC,
  386. Bridge, 3COM, Cisco, and others. The exponential growth of the
  387. Internet began in 1986 with the NSFNet. When the NCP to TCP
  388. transition occurred in 1983 there were only a couple of hundred
  389. computers on the network. As of January 1993 there are over 1.3
  390. million computers in the system. There were only a handful of
  391. networks back in 1983; now there are over 10,000.
  392.  
  393. In 1988 I made a conscious decision to pursue connection of the
  394. Internet to commercial electronic mail carriers. It wasn't clear
  395. that this would be acceptable from the standpoint of federal
  396. policy, but I thought that it was important to begin exploring
  397. the question. By 1990, an experimental mail relay was running at
  398. the Corporation for National Research Initiatives (CNRI) linking
  399. MCI Mail with the Internet. In the intervening two years, most
  400. commercial email carriers in the U.S. are linked to Internet and
  401. many others around the world are following suit.
  402.  
  403. In this same time period, commercial Internet service providers
  404. emerged from the collection of intermediate-level networks
  405. inspired and sponsored by the National Science Foundation as
  406. part of its NSFNet initiatives. Performance Systems
  407. International (PSI) was one of the first, spinning off from
  408. NYSERNet. UUNET Technologies formed Alternet; Advanced Network
  409. and Systems (ANS) was formed by IBM, MERIT, and MCI (with its
  410. ANS CO+RE commercial subsidiary); CERFNet was initiated by
  411. General Atomics which also runs the San Diego Supercomputer
  412. Center; JVNCNet became GES, Inc., offering commercial services;
  413. Sprint formed Sprintlink; Infonet offered Infolan service; the
  414. Swedish PTT offered SWIPNET, and comparable services were
  415. offered in the UK and Finland. The Commercial Internet eXchange
  416. was organized by commercial Internet service providers as a
  417. traffic transfer point for unrestricted service.
  418.  
  419. In 1990 a conscious effort was made to link in commercial and
  420. nonprofit information service providers, and this has also
  421. turned out to be useful. Among others, Dow Jones, Telebase,
  422. Dialog, CARL, the National Library of Medicine, and RLIN are now
  423. online.
  424.  
  425. The last few years have seen internationalization of the system
  426. and commercialization, new constituencies well outside of
  427. computer science and electrical engineering, regulatory
  428. concerns, and security concerns from businesses and out of a
  429. concern for our dependence on this as infrastructure. There are
  430. questions of pricing and privacy; all of these things are having
  431. a significant impact on the technology evolution plan, and with
  432. many different stakeholders there are many divergent views of
  433. the right way to deal with various problems. These views have to
  434. be heard and compromises worked out.
  435.  
  436. The recent rash of books about the Internet is indicative of the
  437. emerging recognition of this system as a very critical
  438. international infrastructure, and not just for the research and
  439. education community.
  440.  
  441. I was astonished to see the CCITT bring up an Internet node; the
  442. U.N. has just brought up a node, un.org; IEEE and ACM are
  443. bringing their systems up. We are well beyond critical mass now.
  444. The 1990s will continue this exponential growth phase. The other
  445. scary thing is that we are beginning to see experimentation with
  446. packet voice and packet video. I fully anticipate that an
  447. Internet TV guide will show up in the next couple of years.
  448.  
  449. I think this kind of phenomenon is going to exacerbate the need
  450. for understanding the economics of these systems and how to deal
  451. with charging for use of resources. I hesitate to speculate;
  452. currently where charges are made they are a fixed price based on
  453. the size of the access pipe. It is possible that the continuous
  454. transmission requirements of sound and video will require
  455. different charging because you are not getting statistical
  456. sharing during continuous broadcasting. In the case of
  457. multicasting, one packet is multiplied many times. Things like
  458. this weren't contemplated when the flat-rate charging algorithms
  459. were developed, so the service providers may have to reexamine
  460. their charging policies.
  461.  
  462. Concurrent with the exponential explosion in Internet use has
  463. come the recognition that there is a real community out there.
  464. The community now needs to recognize that it exists, that it has
  465. a diversity of interests, and that it has responsibilities to
  466. those who are dependent on the continued health of the network.
  467. The Internet Society was founded in January 1992. With
  468. assistance from the Federal Networking Council, the Internet
  469. Society supports the IETF and IAB and educates the broad
  470. community by holding conferences and workshops, by
  471. proselytizing, and by making information available.
  472.  
  473. I had certain technical ambitions when this project started, but
  474. they were all oriented toward highly flexible, dynamic
  475. communication for military application, insensitive to
  476. differences in technology below the level of the routers. I have
  477. been extremely pleased with the robustness of the system and its
  478. ability to adapt to new communications technology.
  479.  
  480. One of the main goals of the project was "IP on everything."
  481. Whether it is frame relay, ATM, or ISDN, it should always be
  482. possible to bring an Internet Protocol up on top of it. We've
  483. always been able to get IP to run, so the Internet has satisfied
  484. my design criteria. But I didn't have a clue that we would end
  485. up with anything like the scale of what we have now, let alone
  486. the scale that it's likely to reach by the end of the decade.
  487.  
  488. On scaling
  489.  
  490. The somewhat embarrassing thing is that the network address
  491. space is under pressure now. The original design of 1973 and
  492. 1974 contemplated a total of 256 networks. There was only one
  493. LAN at PARC, and all the other networks were regional or
  494. nationwide networks. We didn't think there would be more than
  495. 256 research networks involved. When it became clear there would
  496. be a lot of local area networks, we invented the concept of
  497. Class A, B, and C addresses. In Class C there were several
  498. million network IDs. But the problem that was not foreseen was
  499. that the routing protocols and Internet topology were not well
  500. suited for handling an extremely large number of network IDs. So
  501. people preferred to use Class B and subnetting instead. We have
  502. a rather sparsely allocated address space in the current
  503. Internet design, with Class B allocated to excess and Class A
  504. and C allocated only lightly.
  505.  
  506. The lesson is that there is a complex interaction between
  507. routing protocols, topology, and scaling, and that determines
  508. what Internet routing structure will be necessary for the next
  509. ten to twenty years.
  510.  
  511. When I was chairman of the Internet Activities Board and went to
  512. the IETF and IAB to characterize the problem, it was clear that
  513. the solution had to be incrementally deployable. You can deploy
  514. something in parallel, but then how do the new and old
  515. interwork? We are seeing proposals of varying kinds to deal with
  516. the problem. Some kind of backward compatibility is highly
  517. desirable until you can't assign 32-bit address space.
  518. Translating gateways have the defect that when you're halfway
  519. through, half the community is transitioned and half isn't, and
  520. all the traffic between the two has to go through the
  521. translating gateway and it's hard to have enough resources to do
  522. this.
  523.  
  524. It's still a little early to tell how well the alternatives will
  525. satisfy the requirements. We are also dealing not only with the
  526. scaling problem, but also with the need not to foreclose
  527. important new features, such as concepts of flows, the ability
  528. to handle multicasting, and concepts of accounting.
  529.  
  530. I think that as a community we sense varying degrees of pressure
  531. for a workable set of solutions. The people who will be most
  532. instrumental in this transition will be the vendors of routing
  533. equipment and host software, and the offerers of Internet
  534. services. It's the people who offer Internet services who have
  535. the greatest stake in assuring that Internet operation continues
  536. without loss of connectivity, since the value of their service
  537. is a function of how many places you can communicate with. The
  538. deployability of alternative solutions will determine which is
  539. the most attractive. So the transition process is very
  540. important.
  541.  
  542. On use by other networks
  543.  
  544. The Domain Name System (DNS) has been a key to the scaling of
  545. the Internet, allowing it to include non-Internet email systems
  546. and solving the problem of name-to-address mapping in a smooth
  547. scalable way. Paul Mockapetris deserves enormous credit for the
  548. elegant design of the DNS, on which we are still very dependent.
  549. Its primary goal was to solve the problems with the host.txt
  550. files and to get rid of centralized management. Support for Mail
  551. eXchange (MX) was added after the fact, in a second phase.
  552.  
  553. Once you get a sufficient degree of connectivity, it becomes
  554. more advantageous to link to this highly connected thing and
  555. tunnel through it rather than to build a system in parallel. So
  556. BITNET, FidoNet, AppleTalk, SNA, Novell IPX, and DECNet
  557. tunneling are a consequence of the enormous connectivity of the
  558. Internet.
  559.  
  560. The Internet has become a test bed for development of other
  561. protocols. Since there was no lower level OSI infrastructure
  562. available, Marshall Rose proposed that the Internet could be
  563. used to try out X.400 and X.500. In RFC 1006, he proposed that
  564. we emulate TP0 on top of TCP, and so there was a conscious
  565. decision to help higher-level OSI protocols to be deployed in
  566. live environments before the lower-level protocols were
  567. available.
  568.  
  569. It seems likely that the Internet will continue to be the
  570. environment of choice for the deployment of new protocols and
  571. for the linking of diverse systems in the academic, government,
  572. and business sectors for the remainder of this decade and well
  573. into the next.
  574.