home *** CD-ROM | disk | FTP | other *** search
/ rtfm.mit.edu / 2014.07.rtfm.mit.edu.tar / rtfm.mit.edu / pub / arpaprob.txt next >
Internet Message Format  |  1986-10-03  |  8KB

  1. Date: Wed 1 Oct 86 12:41:40-EDT
  2. From: Dennis G. Perry <PERRY@VAX.DARPA.MIL>
  3. Subject: Congestion in the Arpanet
  4. To: tcp-ip@SRI-NIC.ARPA
  5. Cc: perry@VAX.DARPA.MIL
  6. Message-Id: <VAX-MM(187)+TOPSLIB(118) 1-Oct-86 12:41:40.VAX.DARPA.MIL>
  7.  
  8.  
  9.  
  10. There has been quite a bit of conjecture on what is happening
  11. in the Internet and what are the reasons for the performance that
  12. people are seeing.  I have been trying to understand these issues
  13. myself and asked BBN to provide me with some information.  Attached
  14. is some of that information.  I hope it raises other questions and
  15. answers a few.
  16.  
  17. dennis
  18.                 ---------------
  19. ----- Forwarded message :
  20.  
  21. Received: from cc5.bbn.com by .J.BBN.COM id a021878; 30 Sep 86 23:35 EDT
  22. To:  dperry@vax.darpa.mil
  23. Subject: arpanet congestion
  24. Date: 30 Sep 86 23:16:58 EDT (Tue)
  25. From: Jeff Mayersohn <mayersoh@cc5.bbn.com>
  26.  
  27.  
  28.      For the last month, a large number of PSNs in the Arpanet have
  29. been reporting symptoms of congestion to the network monitoring
  30. center.  These reports, or "traps," have been accompanied by an
  31. increasing number of user complaints.  In order to deal with the
  32. problem of network congestion, we have been pursuing a number of
  33. avenues at BBNCC.  This note summarizes the current state of our
  34. investigations and makes a number of specific recommendations.
  35.  
  36.      First, a little background.  The Arpanet topology is largely
  37. unchanged since the physical split of the Arpanet into the Arpanet and
  38. Milnet in 1984.  The topology of the post-physical-split Arpanet was
  39. actually designed from data which was collected before the earlier
  40. logical split of the two networks.  In the past year, the network has
  41. shown a significant increase in traffic.  A five-day average of
  42. network traffic showed an internode traffic rate of 140 Kbps in June
  43. of 1985 and an internode traffic rate of 230 Kbps in March of 1986.
  44. (The traffic growth had, in fact, leveled off over the summer of 1986
  45. but we suspect that traffic has grown even more since the start of the
  46. academic year.)  The network has recently been redesigned to
  47. accommodate NSF hosts, but these new resources have not yet been added
  48. to the network.
  49.  
  50.      Marianne Gardner has observed some very interesting trends in the
  51. statistics that we have collected recently.  First, a very small
  52. percentage of host pairs account for a very large percentage of the
  53. network traffic.  More than 80% of network traffic is contributed by
  54. 600 host pairs (out of 2596 communicating pairs).  Some 60% of the
  55. traffic is contributed by 100 pairs.  Second, gateway traffic
  56. dominates network traffic.  86% of Arpanet traffic has a gateway
  57. as either the source of destination.  52% of network traffic is
  58. between gateways.
  59.  
  60.      Our immediate focus over the last few weeks has been to
  61. concentrate on topological modelling in order to recommend a small
  62. number of changes which would bring network resource usage to
  63. acceptable levels.  This modelling was based upon the peak hour
  64. traffic in late June, the last month during which a global network
  65. statistics collection was performed.  The measured June traffic was
  66. increased by 50%.  This number was based upon the recent growth in
  67. network traffic and the ratio of the peak hour traffic to the peak
  68. minute traffic.  The assumption is probably conservative, which is
  69. good.
  70.  
  71.      The modelling work was done by Peg Primak, whose report is
  72. contained in the following.  As of June, 1986, the Arpanet contained
  73. 47 nodes and 63 links.  Two of these nodes have since been retired
  74. (SAC2 and USC) but were retained in the current model with all USC
  75. traffic re-routed to node 121.  Our routing model shows single hour
  76. maximum link utilization of 75% (on UWisc-Roch) and maximum node
  77. utilization of 69%.  Even with the UWisc-Purdue link restored, the
  78. maximum link utilization is still 72% and the maximum node utilization
  79. is 69%.  (The Wisconsin to Purdue link was temporarily removed from
  80. the network a while ago.)
  81.  
  82.      To alleviate the worst of these problems, we considered adding a
  83. link from MIT77 to SRI51.  The addition of this link reduces maximum
  84. link utilization to 58% (on the new link), with only two other links
  85. having utilizations over 50% (53% and 51%).  Node utilization remains
  86. unchanged.  The network diameter is reduced from 10 to 9 by the
  87. addition of this link.  As these results show, a link between MIT77
  88. and SRI51 would substantially improve Arpanet performance, and would
  89. become one of the most heavily utilized links in the network.
  90.  
  91.      Node utilization is quite heavy on several nodes.  Normal
  92. utilization over seven minute intervals seems to be between 30% and
  93. 60% for all of the following nodes: ISI27, UCLA, RCC5, and UWISC.
  94. With the MIT-SRI link added, SRI51 will join this group.  Measurement
  95. data show that each of these nodes experiences times of very heavy
  96. utilization (15 minute averages of 60% to 70%, 7 minute averages of
  97. 87%).  Based on the June data, either nodes should be added at these
  98. sites or the five nodes at these sites should be upgraded to C/300s.
  99.  
  100.      We assume that the addition of trunk bandwidth will take a while.
  101. There are a number of other actions which we would like to take.
  102. First, TAC 113 should be installed immediately in the Arpanet.  This
  103. provides for two changes that should reduce congestion.  First, the
  104. release bundles more characters into single packets, thereby reducing
  105. the number of bits and packets required to send a given unit of Telnet
  106. data.  TAC 113 also modifies the TCP retransmission timers.  We
  107. probably get the wrong kind of feedback when the network slows down.
  108. If data is delayed due to network congestion, we suspect that this
  109. gives rise to TCP retransmissions which exacerbate the original
  110. problem.
  111.  
  112.      Bob Hinden of our gateway group tells me that, in the next two
  113. weeks, we will conduct an experiment which will make the Wideband
  114. Network look more favorable to the internet routing in the Butterfly
  115. gateways.  This will cause some gateway-to-gateway traffic to move
  116. from the Arpanet to the Wideband Network.
  117.  
  118.      We have observed that, when network links get heavily saturated,
  119. the network routing algorithm becomes a bit too dynamic, trying to
  120. find excess capacity which does not exist.  The effect of the
  121. resulting oscillations in network routing sometimes works to the
  122. detriment of network performance.  There is a simple fix to this,
  123. i.e., we can easily make all three cross-country paths look equivalent
  124. to the routing algorithm.  This results in the proper sort of
  125. load-sharing.
  126.  
  127.      There is still the possibility that we are running short of
  128. end-to-end resources.  We are currently measuring the utilization of
  129. these resources to see whether this is the case.  If we are short of
  130. these resources, there may be easy remedies to this in the PSN
  131. software.
  132.  
  133.      Our efforts over the last few weeks have concentrated on the
  134. modelling work.  We have not had the opportunity to accumulate or
  135. study global network statistics collection in order to understand what
  136. has changed in the last month.  John Wiggins and Clive Greenleaf have
  137. begun this collection today.  Simple questions which should be
  138. answered are: 1) where has traffic increased?  2) are gateways using
  139. the network differently?  3) are we seeing large amounts of internet
  140. control traffic as we have in the past?  3) would the addition of
  141. mailbridges improve the situation?  5) should homings of hosts to
  142. mailbridges be changed?
  143.  
  144.  
  145.      In summary, we should pursue the following:
  146.  
  147. 1) A link from MIT to SRI51 should be added.
  148.  
  149. 2) Node capacity should be added at ISI27, UWISC, RCC5, UCLA, SRI51
  150.  
  151. 3) The planned addition of resources should be accelerated.
  152.  
  153. 4) TAC 113 should be installed.
  154.  
  155. 5) The network parameters should be adjused in order to result in more
  156. even sharing of the cross-country bandwidth, should statistics confirm
  157. that routing oscillations are occurring.
  158.  
  159. 6) The Wideband Network experiment should be conducted as soon as
  160. possible.
  161.  
  162. 7) Additional statistics should be collected in order to shed light on
  163. the underlying causes of the congestion.  We will let results be known
  164. as soon as we have them.
  165.  
  166. 8) The Purdue to Wisconsin link should be restored asap.
  167.  
  168.  
  169.