home *** CD-ROM | disk | FTP | other *** search
/ Internet Info 1997 December / Internet_Info_CD-ROM_Walnut_Creek_December_1997.iso / drafts / draft_ietf_q_t / draft-ietf-tcpimpl-prob-01.txt < prev    next >
Text File  |  1997-07-30  |  46KB  |  1,196 lines

  1.  
  2. Network Working Group                                  V. Paxson, Editor
  3. Internet Draft                                                 S. Dawson
  4. Expiration Date: January 1998                                  July 1997
  5.  
  6.  
  7.                    Known TCP Implementation Problems
  8.                     <draft-ietf-tcpimlp-prob-01.txt>
  9.  
  10.  
  11. 1. Status of this Memo
  12.  
  13.    This document is an Internet  Draft.   Internet  Drafts  are  working
  14.    documents  of  the Internet Engineering Task Force (IETF), its areas,
  15.    and its working groups.  Note that other groups may  also  distribute
  16.    working documents as Internet Drafts.
  17.  
  18.    Internet Drafts are draft  documents  valid  for  a  maximum  of  six
  19.    months, and may be updated, replaced, or obsoleted by other documents
  20.    at any time.  It is inappropriate to use Internet Drafts as reference
  21.    material or to cite them other than as ``work in progress''.
  22.  
  23.    To learn the current status of any Internet Draft, please  check  the
  24.    ``1id-abstracts.txt'' listing contained in the Internet Drafts shadow
  25.    directories  on  ftp.is.co.za   (Africa),   nic.nordu.net   (Europe),
  26.    munnari.oz.au  (Pacific  Rim),  ds.internic.net  (US  East Coast), or
  27.    ftp.isi.edu (US West Coast).
  28.  
  29.    This memo provides information for the Internet community.  This memo
  30.    does  not  specify an Internet standard of any kind.  Distribution of
  31.    this memo is unlimited.
  32.  
  33.  
  34. 2. Introduction
  35.  
  36.    This memo catalogs a number of  known  TCP  implementation  problems.
  37.    The  goal  in  doing  so  is  to  improve  conditions in the existing
  38.    Internet by enhancing the quality of current TCP/IP  implementations.
  39.    It  is  hoped  that  both  performance  and correctness issues can be
  40.    resolved by making implementors  aware  of  the  problems  and  their
  41.    solutions.   In  the  long term, it is hoped that this will provide a
  42.    reduction  in  unnecessary  traffic  on  the  network,  the  rate  of
  43.    connection  failures  due  to  protocol  errors,  and load on network
  44.    servers due to time spent processing  both  unsuccessful  connections
  45.    and  retransmitted  data.   This will help to ensure the stability of
  46.    the global Internet.
  47.  
  48.    Each problem is defined as follows:
  49.  
  50.  
  51.  
  52.  
  53. Paxson, Editor                                                  [Page 1]
  54.  
  55.  
  56.  
  57.  
  58.  
  59. ID                 Known TCP Implementation Problems           July 1997
  60.  
  61.  
  62.    Name The name associated with the problem.  In this memo, the name is
  63.         given as a subsection heading.
  64.  
  65.    Classification
  66.         One or more problem categories for which the problem is  classi-
  67.         fied.   Categories  used  so far: "congestion control", "perfor-
  68.         mance", "reliability".  Others anticipated: "security", "intero-
  69.         perability", "configuration".
  70.  
  71.    Description
  72.         A definition of the problem, succinct  but  including  necessary
  73.         background material.
  74.  
  75.    Significance
  76.         A brief summary of the sorts of environments for which the prob-
  77.         lem is significant.
  78.  
  79.    Implications
  80.         Why the problem is viewed as a problem.
  81.  
  82.    Relevant RFCs
  83.         Brief discussion of the RFCs with respect to which  the  problem
  84.         is viewed as an implementation error.
  85.  
  86.    Trace file demonstrating the problem
  87.         One or more ASCII trace  files  demonstrating  the  problem,  if
  88.         applicable.   These  may  in the future be replaced with URLs to
  89.         on-line traces.
  90.  
  91.    Trace file demonstrating correct behavior
  92.         One or more examples of how correct behavior appears in a trace,
  93.         if applicable.  These may in the future be replaced with URLs to
  94.         on-line traces.
  95.  
  96.    References
  97.         References that further discuss the problem.
  98.  
  99.    How to detect
  100.         How to test an implementation to see if it exhibits the problem.
  101.         This  discussion may include difficulties and subtleties associ-
  102.         ated with causing the  problem  to  manifest  itself,  and  with
  103.         interpreting  traces  to  detect the presence of the problem (if
  104.         applicable).  In the future, this may include URLs for  diagnos-
  105.         tic tools.
  106.  
  107.    How to fix
  108.         For known causes of the problem, how to correct the  implementa-
  109.         tion.
  110.  
  111.  
  112.  
  113. Paxson, Editor                                                  [Page 2]
  114.  
  115.  
  116.  
  117.  
  118.  
  119. ID                 Known TCP Implementation Problems           July 1997
  120.  
  121.  
  122.    Implementation specifics
  123.         If it is viewed as beneficial to document particular implementa-
  124.         tions exhibiting the problem, and if the corresponding implemen-
  125.         tors approve, then this section gives  the  specifics  of  those
  126.         implementations,  along with a contact address for the implemen-
  127.         tors.
  128.  
  129.  
  130. 3. Known implementation problems
  131.  
  132.  
  133. 3.1. No initial slow start
  134.  
  135. Classification
  136.      Congestion control
  137.  
  138. Description
  139.      When a TCP begins transmitting data, it is required  by  RFC  1122,
  140.      4.2.2.15,  to  engage in a "slow start" by initializing its conges-
  141.      tion window, cwnd, to one packet (one segment of the maximum size).
  142.      It  subsequently  increases  cwnd  by  one  packet  for each ack it
  143.      receives for new data.  The minimum  of  cwnd  and  the  receiver's
  144.      advertised  window  bounds  the highest sequence number the TCP can
  145.      transmit.  A TCP that fails to initialize  and  increment  cwnd  in
  146.      this fashion exhibits "No initial slow start".
  147.  
  148. Significance
  149.      In congested environments, detrimental to the performance of  other
  150.      connections, and possibly to the connection itself.
  151.  
  152. Implications
  153.      A TCP failing to slow start when beginning a connection results  in
  154.      traffic  bursts  that  can stress the network, leading to excessive
  155.      queueing delays and packet loss.
  156.  
  157.      Implementations exhibiting this problem might do  so  because  they
  158.      suffer  from  the  general  problem  of  not including the required
  159.      congestion window.  These implementations will also suffer from "No
  160.      slow start after retransmission timeout".
  161.  
  162.      There are different shades of "No initial slow  start".   From  the
  163.      perspective  of  stressing  the  network, the worst is a connection
  164.      that simply always sends based on the receiver's advertised window,
  165.      with  no  notion of a separate congestion window.  Some other forms
  166.      are described in "Uninitialized CWND" and "Initial CWND of 2  pack-
  167.      ets".
  168.  
  169.  
  170.  
  171.  
  172.  
  173. Paxson, Editor                                                  [Page 3]
  174.  
  175.  
  176.  
  177.  
  178.  
  179. ID                 Known TCP Implementation Problems           July 1997
  180.  
  181.  
  182. Relevant RFCs
  183.      RFC 1122 requires use of slow start.  RFC 2001 gives the  specifics
  184.      of slow start.
  185.  
  186. Trace file demonstrating it
  187.      Made using tcpdump/BPF recording at the connection  responder.   No
  188.      losses reported.
  189.  
  190.      10:40:42.244503 B > A: S 1168512000:1168512000(0) win 32768
  191.                              <mss 1460,nop,wscale 0> (DF) [tos 0x8]
  192.      10:40:42.259908 A > B: S 3688169472:3688169472(0)
  193.                              ack 1168512001 win 32768 <mss 1460>
  194.      10:40:42.389992 B > A: . ack 1 win 33580 (DF) [tos 0x8]
  195.      10:40:42.664975 A > B: P 1:513(512) ack 1 win 32768
  196.      10:40:42.700185 A > B: . 513:1973(1460) ack 1 win 32768
  197.      10:40:42.718017 A > B: . 1973:3433(1460) ack 1 win 32768
  198.      10:40:42.762945 A > B: . 3433:4893(1460) ack 1 win 32768
  199.      10:40:42.811273 A > B: . 4893:6353(1460) ack 1 win 32768
  200.      10:40:42.829149 A > B: . 6353:7813(1460) ack 1 win 32768
  201.      10:40:42.853687 B > A: . ack 1973 win 33580 (DF) [tos 0x8]
  202.      10:40:42.864031 B > A: . ack 3433 win 33580 (DF) [tos 0x8]
  203.  
  204.      After the third packet, the connection is established.  A, the con-
  205.      nection responder, begins transmitting to B, the connection initia-
  206.      tor.  Host A quickly sends 6 packets comprising  7812  bytes,  even
  207.      though  the SYN exchange agreed upon an MSS of 1460 bytes (implying
  208.      an initial congestion window  of  1  segment  corresponds  to  1460
  209.      bytes), and so A should have sent at most 1460 bytes.
  210.  
  211.      The acks sent by B to A in the last two lines  indicate  that  this
  212.      trace  is  not a measurement error (slow start really occurring but
  213.      the corresponding acks having been dropped by the packet filter).
  214.  
  215.      A second trace confirmed that the problem is repeatable.
  216.  
  217.  
  218. Trace file demonstrating correct behavior
  219.  
  220.      Made using tcpdump/BPF recording at the connection originator.   No
  221.      losses reported.
  222.  
  223.      12:35:31.914050 C > D: S 1448571845:1448571845(0) win 4380 <mss 1460>
  224.      12:35:32.068819 D > C: S 1755712000:1755712000(0) ack 1448571846 win 4096
  225.      12:35:32.069341 C > D: . ack 1 win 4608
  226.      12:35:32.075213 C > D: P 1:513(512) ack 1 win 4608
  227.      12:35:32.286073 D > C: . ack 513 win 4096
  228.      12:35:32.287032 C > D: . 513:1025(512) ack 1 win 4608
  229.      12:35:32.287506 C > D: . 1025:1537(512) ack 1 win 4608
  230.  
  231.  
  232.  
  233. Paxson, Editor                                                  [Page 4]
  234.  
  235.  
  236.  
  237.  
  238.  
  239. ID                 Known TCP Implementation Problems           July 1997
  240.  
  241.  
  242.      12:35:32.432712 D > C: . ack 1537 win 4096
  243.      12:35:32.433690 C > D: . 1537:2049(512) ack 1 win 4608
  244.      12:35:32.434481 C > D: . 2049:2561(512) ack 1 win 4608
  245.      12:35:32.435032 C > D: . 2561:3073(512) ack 1 win 4608
  246.      12:35:32.594526 D > C: . ack 3073 win 4096
  247.      12:35:32.595465 C > D: . 3073:3585(512) ack 1 win 4608
  248.      12:35:32.595947 C > D: . 3585:4097(512) ack 1 win 4608
  249.      12:35:32.596414 C > D: . 4097:4609(512) ack 1 win 4608
  250.      12:35:32.596888 C > D: . 4609:5121(512) ack 1 win 4608
  251.      12:35:32.733453 D > C: . ack 4097 win 4096
  252.  
  253.  
  254. References
  255.      This problem is documented in [Paxson97].
  256.  
  257. How to detect
  258.      For implementations always manifesting this problem,  it  shows  up
  259.      immediately  in  a  packet trace or a sequence plot, as illustrated
  260.      above.
  261.  
  262. How to fix
  263.      If the root problem is that the implementation lacks a notion of  a
  264.      congestion  window,  then  unfortunately  this requires significant
  265.      work to fix.  However, doing so is important, as  such  implementa-
  266.      tions also exhibit "No slow start after retransmission timeout".
  267.  
  268.  
  269. 3.2. No slow start after retransmission timeout
  270.  
  271. Classification
  272.      Congestion control
  273.  
  274. Description
  275.      When a TCP experiences a retransmission timeout, it is required  by
  276.      RFC  1122,  4.2.2.15, to engage in "slow start" by initializing its
  277.      congestion window, cwnd, to one packet (one segment of the  maximum
  278.      size).   It  subsequently increases cwnd by one packet for each ack
  279.      it  receives  for  new  data  until  it  reaches  the   "congestion
  280.      avoidance"  threshold,  ssthresh,  at  which  point  the congestion
  281.      avoidance algorithm for updating the window takes over.  A TCP that
  282.      fails  to  enter  slow start upon a timeout exhibits "No slow start
  283.      after retransmission timeout".
  284.  
  285. Significance
  286.      In congested environments, severely detrimental to the  performance
  287.      of other connections, and also the connection itself.
  288.  
  289. Implications
  290.  
  291.  
  292.  
  293. Paxson, Editor                                                  [Page 5]
  294.  
  295.  
  296.  
  297.  
  298.  
  299. ID                 Known TCP Implementation Problems           July 1997
  300.  
  301.  
  302.      Entering slow start upon timeout forms one of the  cornerstones  of
  303.      Internet  congestion  stability,  as  outlined in [Jacobson88].  If
  304.      TCPs fail to do so,  the  network  becomes  at  risk  of  suffering
  305.      "congestion collapse" [RFC896].
  306.  
  307. Relevant RFCs
  308.      RFC 1122 requires use of slow start after loss.  RFC 2001 gives the
  309.      specifics  of  how  to  implement  slow  start.   RFC 896 describes
  310.      congestion collapse.
  311.  
  312.      The retransmission timeout discussed here should  not  be  confused
  313.      with  the  separate  "fast  recovery" retransmission mechanism dis-
  314.      cussed in RFC 2001.
  315.  
  316.  
  317. Trace file demonstrating it
  318.      Made using tcpdump/BPF recording at the sending TCP (A).  No losses
  319.      reported.
  320.  
  321.      10:40:59.090612 B > A: . ack 357125 win 33580 (DF) [tos 0x8]
  322.      10:40:59.222025 A > B: . 357125:358585(1460) ack 1 win 32768
  323.      10:40:59.868871 A > B: . 357125:358585(1460) ack 1 win 32768
  324.      10:41:00.016641 B > A: . ack 364425 win 33580 (DF) [tos 0x8]
  325.      10:41:00.036709 A > B: . 364425:365885(1460) ack 1 win 32768
  326.      10:41:00.045231 A > B: . 365885:367345(1460) ack 1 win 32768
  327.      10:41:00.053785 A > B: . 367345:368805(1460) ack 1 win 32768
  328.      10:41:00.062426 A > B: . 368805:370265(1460) ack 1 win 32768
  329.      10:41:00.071074 A > B: . 370265:371725(1460) ack 1 win 32768
  330.      10:41:00.079794 A > B: . 371725:373185(1460) ack 1 win 32768
  331.      10:41:00.089304 A > B: . 373185:374645(1460) ack 1 win 32768
  332.      10:41:00.097738 A > B: . 374645:376105(1460) ack 1 win 32768
  333.      10:41:00.106409 A > B: . 376105:377565(1460) ack 1 win 32768
  334.      10:41:00.115024 A > B: . 377565:379025(1460) ack 1 win 32768
  335.      10:41:00.123576 A > B: . 379025:380485(1460) ack 1 win 32768
  336.      10:41:00.132016 A > B: . 380485:381945(1460) ack 1 win 32768
  337.      10:41:00.141635 A > B: . 381945:383405(1460) ack 1 win 32768
  338.      10:41:00.150094 A > B: . 383405:384865(1460) ack 1 win 32768
  339.      10:41:00.158552 A > B: . 384865:386325(1460) ack 1 win 32768
  340.      10:41:00.167053 A > B: . 386325:387785(1460) ack 1 win 32768
  341.      10:41:00.175518 A > B: . 387785:389245(1460) ack 1 win 32768
  342.      10:41:00.210835 A > B: . 389245:390705(1460) ack 1 win 32768
  343.      10:41:00.226108 A > B: . 390705:392165(1460) ack 1 win 32768
  344.      10:41:00.241524 B > A: . ack 389245 win 8760 (DF) [tos 0x8]
  345.  
  346.      The first packet indicates the ack point is 357125.  130 msec after
  347.      receiving  the  ack,  A  transmits  the packet after the ack point,
  348.      357125:358585.  640 msec after this  transmission,  it  retransmits
  349.      357125:358585,  in  an  apparent  retransmission  timeout.  At this
  350.  
  351.  
  352.  
  353. Paxson, Editor                                                  [Page 6]
  354.  
  355.  
  356.  
  357.  
  358.  
  359. ID                 Known TCP Implementation Problems           July 1997
  360.  
  361.  
  362.      point, A's cwnd should be one MSS,  or  1460  bytes,  as  A  enters
  363.      slow-start.  The trace is consistent with this possibility.
  364.  
  365.      B replies with an ack of 364425, indicating that  A  has  filled  a
  366.      sequence  hole.   At  this  point, A's cwnd should be 1460*2 = 2920
  367.      bytes, since in slow start receiving an ack advances cwnd  by  MSS.
  368.      However,  A  then  launches 19 consecutive packets, which is incon-
  369.      sistent with slow start.
  370.  
  371.      A second trace confirmed that the problem is repeatable.
  372.  
  373.  
  374. Trace file demonstrating correct behavior
  375.      Made using tcpdump/BPF recording at the sending TCP (C).  No losses
  376.      reported.
  377.  
  378.      12:35:48.442538 C > D: P 465409:465921(512) ack 1 win 4608
  379.      12:35:48.544483 D > C: . ack 461825 win 4096
  380.      12:35:48.703496 D > C: . ack 461825 win 4096
  381.      12:35:49.044613 C > D: . 461825:462337(512) ack 1 win 4608
  382.      12:35:49.192282 D > C: . ack 465921 win 2048
  383.      12:35:49.192538 D > C: . ack 465921 win 4096
  384.      12:35:49.193392 C > D: P 465921:466433(512) ack 1 win 4608
  385.      12:35:49.194726 C > D: P 466433:466945(512) ack 1 win 4608
  386.      12:35:49.350665 D > C: . ack 466945 win 4096
  387.      12:35:49.351694 C > D: . 466945:467457(512) ack 1 win 4608
  388.      12:35:49.352168 C > D: . 467457:467969(512) ack 1 win 4608
  389.      12:35:49.352643 C > D: . 467969:468481(512) ack 1 win 4608
  390.      12:35:49.506000 D > C: . ack 467969 win 3584
  391.  
  392.      After C transmits the first packet shown to D, it takes  no  action
  393.      in  response  to  D's  acks  for  461825,  because the first packet
  394.      already reached the advertised window limit  of  4096  bytes  above
  395.      461825.    600   msec   after  transmitting  the  first  packet,  C
  396.      retransmits  461825:462337,  presumably  due  to  a  timeout.   Its
  397.      congestion window is now MSS (512 bytes).
  398.  
  399.      D acks 465921, indicating that C's retransmission filled a sequence
  400.      hole.   This  ack advances C's cwnd from 512 to 1024.  Very shortly
  401.      after, D acks 465921 again in order to update  the  offered  window
  402.      from  2048 to 4096.  This ack does not advance cwnd since it is not
  403.      for new data.  Very shortly after, C responds to the newly enlarged
  404.      window  by  transmitting  two packets.  D acks both, advancing cwnd
  405.      from 1024 to 1536.  C in turn transmits three packets.
  406.  
  407.  
  408. References
  409.      This problem is documented in [Paxson97].
  410.  
  411.  
  412.  
  413. Paxson, Editor                                                  [Page 7]
  414.  
  415.  
  416.  
  417.  
  418.  
  419. ID                 Known TCP Implementation Problems           July 1997
  420.  
  421.  
  422. How to detect
  423.      Packet loss is common enough in the Internet that generally  it  is
  424.      not  difficult to find an Internet path that will force retransmis-
  425.      sion due to packet loss.
  426.  
  427.      If the effective window prior to loss  is  large  enough,  however,
  428.      then  the  TCP  may  retransmit using the "fast recovery" mechanism
  429.      described in RFC 2001.  In a packet trace, the  signature  of  fast
  430.      recovery  is  that  the packet retransmission occurs in response to
  431.      the receipt of three duplicate acks, and subsequent duplicate  acks
  432.      may  lead to the transmission of new data, above both the ack point
  433.      and the highest sequence transmitted so far.  An absence  of  three
  434.      duplicate  acks  prior  to  retransmission  suffices to distinguish
  435.      between timeout and fast recovery retransmissions.  In the face  of
  436.      only  observing  fast recovery retransmissions, generally it is not
  437.      difficult to repeat the data transfer  until  observing  a  timeout
  438.      retransmission.
  439.  
  440.      Once armed with a trace exhibiting a timeout retransmission, deter-
  441.      mining  whether the TCP follows slow start is done by computing the
  442.      correct progression of cwnd and comparing it to the amount of  data
  443.      transmited by the TCP subsequent to the timeout rtransmission.
  444.  
  445.  
  446. How to fix
  447.      If the root problem is that the implementation lacks a notion of  a
  448.      congestion  window,  then  unfortunately  this requires significant
  449.      work to fix.  However, doing so is critical, for  reasons  outlined
  450.      above.
  451.  
  452.  
  453. 3.3. Inconsistent retransmission
  454.  
  455. Classification
  456.      Reliability
  457.  
  458. Description
  459.      If, for a given sequence number, a  sending  TCP  retransmits  dif-
  460.      ferent  data  than previously sent for that sequence number, then a
  461.      strong possibility arises that the receiving TCP will reconstruct a
  462.      different  byte  stream  than that sent by the sending application,
  463.      depending on which instance of  the  sequence  number  it  accepts.
  464.      Such a sending TCP exhibits "Inconsistent retransmission".
  465.  
  466. Significance
  467.      Critical for all environments.
  468.  
  469. Implications
  470.  
  471.  
  472.  
  473. Paxson, Editor                                                  [Page 8]
  474.  
  475.  
  476.  
  477.  
  478.  
  479. ID                 Known TCP Implementation Problems           July 1997
  480.  
  481.  
  482.      Reliable delivery of data is a fundamental property of TCP.
  483.  
  484. Relevant RFCs
  485.      RFC 793, section 1.5, discusses the central role of reliability  in
  486.      TCP operation.
  487.  
  488. Trace file demonstrating it
  489.      Made using tcpdump/BPF recording at  the  receiving  TCP  (B).   No
  490.      losses reported.
  491.  
  492.      12:35:53.145503 A > B: FP 90048435:90048461(26) ack 393464682 win 4096
  493.                                           4500 0042 9644 0000
  494.                       3006 e4c2 86b1 0401 83f3 010a b2a4 0015
  495.                       055e 07b3 1773 cb6a 5019 1000 68a9 0000
  496.      data starts here>504f 5254 2031 3334 2c31 3737*2c34 2c31
  497.                       2c31 3738 2c31 3635 0d0a
  498.      12:35:53.146479 B > A: R 393464682:393464682(0) win 8192
  499.      12:35:53.851714 A > B: FP 90048429:90048463(34) ack 393464682 win 4096
  500.                                           4500 004a 965b 0000
  501.                       3006 e4a3 86b1 0401 83f3 010a b2a4 0015
  502.                       055e 07ad 1773 cb6a 5019 1000 8bd3 0000
  503.      data starts here>5041 5356 0d0a 504f 5254 2031 3334 2c31
  504.                       3737*2c31 3035 2c31 3431 2c34 2c31 3539
  505.                       0d0a
  506.  
  507.      The sequence numbers shown in  this  trace  are  absolute  and  not
  508.      adjusted to reflect the ISN.  The 4-digit hex values show a dump of
  509.      the packet's IP and TCP headers, as well as payload.  A first sends
  510.      to  B  data  for  90048435:90048461.  The corresponding data begins
  511.      with hex words 504f, 5254, etc.
  512.  
  513.      B responds with a RST.  Since the recording location was  local  to
  514.      B, it is unknown whether A received the RST.
  515.  
  516.      A then sends 90048429:90048463, which includes six  sequence  posi-
  517.      tions  below the earlier transmission, all 26 positions of the ear-
  518.      lier transmission, and two additional sequence positions.
  519.  
  520.      The retransmission disagrees starting just after sequence 90048447,
  521.      annotated  above  with  a leading '*'.  These two bytes were origi-
  522.      nally transmitted as hex 2c34 but retransmitted as hex 2c31.   Sub-
  523.      sequent positions disagree as well.
  524.  
  525.      This behavior has been observed in other traces involving different
  526.      hosts.  It is unknown how to repeat it.
  527.  
  528.      In this instance, no corruption would occur, since  B  has  already
  529.      indicated it will not accept further packets from A.
  530.  
  531.  
  532.  
  533. Paxson, Editor                                                  [Page 9]
  534.  
  535.  
  536.  
  537.  
  538.  
  539. ID                 Known TCP Implementation Problems           July 1997
  540.  
  541.  
  542.      A second example illustrates a slightly different instance  of  the
  543.      problem.   The  tracing  again  was  made  with  tcpdump/BPF at the
  544.      receiving TCP (D).
  545.  
  546.      22:23:58.645829 C > D: P 185:212(27) ack 565 win 4096
  547.                                           4500 0043 90a3 0000
  548.                       3306 0734 cbf1 9eef 83f3 010a 0525 0015
  549.                       a3a2 faba 578c 70a4 5018 1000 9a53 0000
  550.      data starts here>504f 5254 2032 3033 2c32 3431 2c31 3538
  551.                       2c32 3339 2c35 2c34 330d 0a
  552.      22:23:58.646805 D > C: . ack 184 win 8192
  553.                                           4500 0028 beeb 0000
  554.                       3e06 ce06 83f3 010a cbf1 9eef 0015 0525
  555.                       578c 70a4 a3a2 fab9 5010 2000 342f 0000
  556.      22:31:36.532244 C > D: FP 186:213(27) ack 565 win 4096
  557.                                           4500 0043 9435 0000
  558.                       3306 03a2 cbf1 9eef 83f3 010a 0525 0015
  559.                       a3a2 fabb 578c 70a4 5019 1000 9a51 0000
  560.      data starts here>504f 5254 2032 3033 2c32 3431 2c31 3538
  561.                       2c32 3339 2c35 2c34 330d 0a
  562.  
  563.      In this trace, sequence numbers are relative.  C sends 185:212, but
  564.      D only sends an ack for 184 (so sequence number 184 is missing).  C
  565.      then sends 186:213.  The packet payload is identical to the  previ-
  566.      ous  payload, but the base sequence number is one higher, resulting
  567.      in an inconsistent retransmission.
  568.  
  569.      Neither trace exhibits checksum errors.
  570.  
  571.  
  572. Trace file demonstrating correct behavior
  573.      (Omitted, as presumably correct behavior is obvious.)
  574.  
  575. References
  576.      None known.
  577.  
  578. How to detect
  579.      This problem unfortunately can be very difficult to  detect,  since
  580.      available  experience  indicates  it is quite rare that it is mani-
  581.      fested.  No "trigger" has been  identified  that  can  be  used  to
  582.      reproduce the problem.
  583.  
  584. How to fix
  585.      In the absence of a known "trigger", we cannot always assess how to
  586.      fix the problem.
  587.  
  588.      In one implementation (not the one illustrated above), the  problem
  589.      manifested  itself  when  (1) the sender received a zero window and
  590.  
  591.  
  592.  
  593. Paxson, Editor                                                 [Page 10]
  594.  
  595.  
  596.  
  597.  
  598.  
  599. ID                 Known TCP Implementation Problems           July 1997
  600.  
  601.  
  602.      stalled; (2) eventually an ack arrived that offered a window larger
  603.      than  that  in  effect  at  the  time  of the stall; (3) the sender
  604.      transmitted out of the buffer of data it held at the  time  of  the
  605.      stall,  but (4) failed to limit this transfer to the buffer length,
  606.      instead using the newly advertised  (and  larger)  offered  window.
  607.      Consequently,  in  addition  to  the valid buffer contents, it sent
  608.      whatever garbage values followed the end of the buffer.  If it then
  609.      retransmitted  the corresponding sequence numbers, at that point it
  610.      sent the correct data, resulting in an inconsistent retransmission.
  611.      Note  that  this  instance  of  the problem reflects a more general
  612.      problem, that of initially transmitting incorrect data.
  613.  
  614.  
  615. 3.4. Failure to retain above-sequence data
  616.  
  617. Classification
  618.      Congestion control, performance
  619.  
  620. Description
  621.      When a TCP receives an "above sequence" segment, meaning one with a
  622.      sequence  number  exceeding  RCV.NXT  but below RCV.NXT+RCV.WND, it
  623.      SHOULD queue the segment for later delivery (RFC  1122,  4.2.2.20).
  624.      A  TCP  that  fails  to do so is said to exhibit "Failure to retain
  625.      above-sequence data".
  626.  
  627.      It may sometimes be appropriate for a TCP to discard above-sequence
  628.      data  to  reclaim memory.  If they do so only rarely, then we would
  629.      not consider them to exhibit this problem.  Instead, the particular
  630.      concern is with TCPs that always discard above-sequence data.
  631.  
  632.  
  633. Significance
  634.      In environments prone to packet loss, detrimental  to  the  perfor-
  635.      mance of both other connections and the connection itself.
  636.  
  637. Implications
  638.      In times of congestion, a failure  to  retain  above-sequence  data
  639.      will lead to numerous otherwise-unnecessary retransmissions, aggra-
  640.      vating the congestion and potentially  reducing  performance  by  a
  641.      large factor.
  642.  
  643. Relevant RFCs
  644.      RFC 1122 revises RFC 793 by upgrading the latter's MAY to a  SHOULD
  645.      on this issue.
  646.  
  647. Trace file demonstrating it
  648.      Made using tcpdump/BPF recording at the receiving TCP.   No  losses
  649.      reported.
  650.  
  651.  
  652.  
  653. Paxson, Editor                                                 [Page 11]
  654.  
  655.  
  656.  
  657.  
  658.  
  659. ID                 Known TCP Implementation Problems           July 1997
  660.  
  661.  
  662.      B is the TCP sender, A the receiver.  A exhibits failure to  retain
  663.      above sequence data:
  664.  
  665.      10:38:10.164860 B > A: . 221078:221614(536) ack 1 win 33232 [tos 0x8]
  666.      10:38:10.170809 B > A: . 221614:222150(536) ack 1 win 33232 [tos 0x8]
  667.      10:38:10.177183 B > A: . 222150:222686(536) ack 1 win 33232 [tos 0x8]
  668.      10:38:10.225039 A > B: . ack 222686 win 25800
  669.  
  670.      Here B has sent up to (relative) sequence 222676 in-sequence, and A
  671.      accordingly acknowledges.
  672.  
  673.      10:38:10.268131 B > A: . 223222:223758(536) ack 1 win 33232 [tos 0x8]
  674.      10:38:10.337995 B > A: . 223758:224294(536) ack 1 win 33232 [tos 0x8]
  675.      10:38:10.344065 B > A: . 224294:224830(536) ack 1 win 33232 [tos 0x8]
  676.      10:38:10.350169 B > A: . 224830:225366(536) ack 1 win 33232 [tos 0x8]
  677.      10:38:10.356362 B > A: . 225366:225902(536) ack 1 win 33232 [tos 0x8]
  678.      10:38:10.362445 B > A: . 225902:226438(536) ack 1 win 33232 [tos 0x8]
  679.      10:38:10.368579 B > A: . 226438:226974(536) ack 1 win 33232 [tos 0x8]
  680.      10:38:10.374732 B > A: . 226974:227510(536) ack 1 win 33232 [tos 0x8]
  681.      10:38:10.380825 B > A: . 227510:228046(536) ack 1 win 33232 [tos 0x8]
  682.      10:38:10.387027 B > A: . 228046:228582(536) ack 1 win 33232 [tos 0x8]
  683.      10:38:10.393053 B > A: . 228582:229118(536) ack 1 win 33232 [tos 0x8]
  684.      10:38:10.399193 B > A: . 229118:229654(536) ack 1 win 33232 [tos 0x8]
  685.      10:38:10.405356 B > A: . 229654:230190(536) ack 1 win 33232 [tos 0x8]
  686.  
  687.      A now receives 13 additional packets  from  B.   These  are  above-
  688.      sequence because 222686:223222 was dropped.  The packets do however
  689.      fit within the offered window of 25800.  A does  not  generate  any
  690.      duplicate acks for them.
  691.  
  692.      The trace contributor (V. Paxson) verified that  these  13  packets
  693.      had valid IP and TCP checksums.
  694.  
  695.      10:38:11.917728 B > A: . 222686:223222(536) ack 1  win  33232  [tos
  696.      0x8] 10:38:11.930925 A > B: . ack 223222 win 32232
  697.  
  698.      B times out for 222686:223222 and retransmits it.   Upon  receiving
  699.      it,  A  only acknowledges 223222.  Had it retained the valid above-
  700.      sequence packets, it would instead have ack'd 230190.
  701.  
  702.      10:38:12.048438 B > A: . 223222:223758(536) ack 1  win  33232  [tos
  703.      0x8]  10:38:12.054397  B  > A: . 223758:224294(536) ack 1 win 33232
  704.      [tos 0x8] 10:38:12.068029 A > B: . ack 224294 win 31696
  705.  
  706.      B retransmits two more packets, and A only acknowledges them.  This
  707.      pattern  continues  as  B retransmits the entire set of previously-
  708.      received packets.
  709.  
  710.  
  711.  
  712.  
  713. Paxson, Editor                                                 [Page 12]
  714.  
  715.  
  716.  
  717.  
  718.  
  719. ID                 Known TCP Implementation Problems           July 1997
  720.  
  721.  
  722.      A second trace confirmed that the problem is repeatable.
  723.  
  724.  
  725. Trace file demonstrating correct behavior
  726.      Made using tcpdump/BPF recording at  the  receiving  TCP  (C).   No
  727.      losses reported.
  728.  
  729.      09:11:25.790417 D > C: . 33793:34305(512) ack 1 win 61440
  730.      09:11:25.791393 D > C: . 34305:34817(512) ack 1 win 61440
  731.      09:11:25.792369 D > C: . 34817:35329(512) ack 1 win 61440
  732.      09:11:25.792369 D > C: . 35329:35841(512) ack 1 win 61440
  733.      09:11:25.793345 D > C: . 36353:36865(512) ack 1 win 61440
  734.      09:11:25.794321 C > D: . ack 35841 win 59904
  735.  
  736.      A sequence hole occurs because 35841:36353 has been dropped.
  737.  
  738.      09:11:25.794321 D > C: . 36865:37377(512) ack 1 win 61440
  739.      09:11:25.794321 C > D: . ack 35841 win 59904
  740.      09:11:25.795297 D > C: . 37377:37889(512) ack 1 win 61440
  741.      09:11:25.795297 C > D: . ack 35841 win 59904
  742.      09:11:25.796273 C > D: . ack 35841 win 61440
  743.      09:11:25.798225 D > C: . 37889:38401(512) ack 1 win 61440
  744.      09:11:25.799201 C > D: . ack 35841 win 61440
  745.      09:11:25.807009 D > C: . 38401:38913(512) ack 1 win 61440
  746.      09:11:25.807009 C > D: . ack 35841 win 61440
  747.      09:11:25.884113 D > C: . 52737:53249(512) ack 1 win 61440
  748.      09:11:25.884113 C > D: . ack 35841 win 61440
  749.  
  750.      Each additional, above-sequence packet C receives from D elicits  a
  751.      duplicate ack for 35841.
  752.  
  753.      09:11:25.887041 D > C: . 35841:36353(512) ack 1 win 61440
  754.      09:11:25.887041 C > D: . ack 53249 win 44032
  755.  
  756.      D retransmits 35841:36353 and C acknowledges receipt  of  data  all
  757.      the way up to 53249.
  758.  
  759.  
  760. References
  761.      This problem is documented in [Paxson97].
  762.  
  763.  
  764. How to detect
  765.      Packet loss is common enough in the Internet that generally  it  is
  766.      not  difficult  to  find  an Internet path that will result in some
  767.      above-sequence packets arriving.  A TCP that exhibits  "Failure  to
  768.      retain  ..."  may  not  generate  duplicate acks for these packets.
  769.      However, some TCPs that do retain above-sequence data also  do  not
  770.  
  771.  
  772.  
  773. Paxson, Editor                                                 [Page 13]
  774.  
  775.  
  776.  
  777.  
  778.  
  779. ID                 Known TCP Implementation Problems           July 1997
  780.  
  781.  
  782.      generate  duplicate acks, so failure to do so does not definitively
  783.      identify the problem.  Instead, the key observation is whether upon
  784.      retransmission  of  the  dropped  packet,  data that was previously
  785.      above-sequence is acknowledged.
  786.  
  787.      Two considerations in detecting this problem using a  packet  trace
  788.      are  that  it  is  easiest  to  do  so with a trace made at the TCP
  789.      receiver, in order to unambiguously determine which packets arrived
  790.      successfully,  and  that  such  packets may still be correctly dis-
  791.      carded if they arrive with checksum  errors.   The  latter  can  be
  792.      tested  by  capturing the entire packet contents and performing the
  793.      IP and TCP checksum algorithms to verify  their  integrity;  or  by
  794.      confirming  that the packets arrive with the same checksum and con-
  795.      tents as that with which they were sent, with  a  presumption  that
  796.      the  sending  TCP correctly calculates checksums for the packets it
  797.      transmits.
  798.  
  799.      It is considerably easier to verify that an implementation does NOT
  800.      exhibit this problem.  This can be done by recording a trace at the
  801.      data sender, and observing that sometimes  after  a  retransmission
  802.      the  receiver  acknowledges a higher sequence number than just that
  803.      which was retransmitted.
  804.  
  805.  
  806. How to fix
  807.      If the root problem is that the implementation lacks  buffer,  then
  808.      then unfortunately this requires significant work to fix.  However,
  809.      doing so is important, for reasons outlined above.
  810.  
  811.  
  812. 3.5. Excessively short keepalive connection timeout
  813.  
  814.  
  815. Classification
  816.      Reliability
  817.  
  818.  
  819. Description
  820.      Keep-alive is a mechanism for checking whether an  idle  connection
  821.      is  still  alive.   According to RFC-1122, keepalive should only be
  822.      invoked in server applications that might otherwise  hang  indefin-
  823.      itely  and  consume  resources unnecessarily if a client crashes or
  824.      aborts a connection during a network failure.
  825.  
  826.      RFC-1122 also specifies that if a keep-alive  mechanism  is  imple-
  827.      mented  it  MUST  NOT  interpret failure to respond to any specific
  828.      probe as a dead connection.  The RFC does not specify a  particular
  829.      mechanism  for timing out a connection when no response is received
  830.  
  831.  
  832.  
  833. Paxson, Editor                                                 [Page 14]
  834.  
  835.  
  836.  
  837.  
  838.  
  839. ID                 Known TCP Implementation Problems           July 1997
  840.  
  841.  
  842.      for keepalive probes.  However, if the  mechanism  does  not  allow
  843.      ample  time  for recovery from network congestion or delay, connec-
  844.      tions may be timed out unnecessarily.
  845.  
  846.  
  847. Significance
  848.      In congested networks, can lead to unwarranted termination of  con-
  849.      nections.
  850.  
  851.  
  852. Implications
  853.      It is possible for the network connection between two peer machines
  854.      to  become  congested  or to exhibit packet loss at the time that a
  855.      keep-alive probe is  sent  on  a  connection.   If  the  keep-alive
  856.      mechanism  does  not  allow sufficient time before dropping connec-
  857.      tions in the face of  unacknowledged  probes,  connections  may  be
  858.      dropped even when both peers of a connection are still alive.
  859.  
  860.  
  861. Relevant RFCs
  862.      RFC 1122 specifies that the keep-alive mechanism may  be  provided.
  863.      It  does  not  specify a mechanism for determining dead connections
  864.      when keepalive probes are not acknowledged.
  865.  
  866.  
  867. Trace file demonstrating it
  868.      Made using the Orchestra tool at the  peer  of  the  machine  using
  869.      keep-alive.   After  connection establishment, incoming keep-alives
  870.      were dropped by Orchestra to simulate a dead connection.
  871.  
  872.      22:11:12.040000 A > B: 22666019:0 win 8192 datasz 4 SYN
  873.      22:11:12.060000 B > A: 2496001:22666020 win 4096 datasz 4 SYN ACK
  874.      22:11:12.130000 A > B: 22666020:2496002 win 8760 datasz 0 ACK
  875.      00:23:00.680000 A > B: 22666019:2496002 win 8760 datasz 1 ACK
  876.      00:23:01.770000 A > B: 22666019:2496002 win 8760 datasz 1 ACK
  877.      00:23:02.870000 A > B: 22666019:2496002 win 8760 datasz 1 ACK
  878.      00:23.03.970000 A > B: 22666019:2496002 win 8760 datasz 1 ACK
  879.      00:23.05.070000 A > B: 22666019:2496002 win 8760 datasz 1 ACK
  880.  
  881.      The initial three packets  are  the  SYN  exchange  for  connection
  882.      setup.   About  two  hours later, the keepalive timer fires because
  883.      the connection has been idle.  Keepalive probes are  transmitted  a
  884.      total  of  5  times,  with a 1 second spacing between probes, after
  885.      which the connection is dropped.  This is problematic because  a  5
  886.      second network outage at the time of the first probe results in the
  887.      connection being killed.
  888.  
  889.  
  890.  
  891.  
  892.  
  893. Paxson, Editor                                                 [Page 15]
  894.  
  895.  
  896.  
  897.  
  898.  
  899. ID                 Known TCP Implementation Problems           July 1997
  900.  
  901.  
  902. Trace file demonstrating correct behavior
  903.      Made using the Orchestra tool at the  peer  of  the  machine  using
  904.      keep-alive.   After  connection establishment, incoming keep-alives
  905.      were dropped by Orchestra to simulate a dead connection.
  906.  
  907.      16:01:52.130000 A > B: 1804412929:0 win 4096 datasz 4 SYN
  908.      16:01:52.360000 B > A: 16512001:1804412930 win 4096 datasz 4 SYN ACK
  909.      16:01:52.410000 A > B: 1804412930:16512002 win 4096 datasz 0 ACK
  910.      18:01:57.170000 A > B: 1804412929:16512002 win 4096 datasz 0 ACK
  911.      18:03:12.220000 A > B: 1804412929:16512002 win 4096 datasz 0 ACK
  912.      18:04:27.270000 A > B: 1804412929:16512002 win 4096 datasz 0 ACK
  913.      18:05:42.320000 A > B: 1804412929:16512002 win 4096 datasz 0 ACK
  914.      18:06:57.370000 A > B: 1804412929:16512002 win 4096 datasz 0 ACK
  915.      18:08:12.420000 A > B: 1804412929:16512002 win 4096 datasz 0 ACK
  916.      18:09:27.480000 A > B: 1804412929:16512002 win 4096 datasz 0 ACK
  917.      18:10:43.290000 A > B: 1804412929:16512002 win 4096 datasz 0 ACK
  918.      18:11:57.580000 A > B: 1804412929:16512002 win 4096 datasz 0 ACK
  919.      18:13:12.630000 A > B: 1804412929:16512002 win 4096 datasz 0 RST ACK
  920.  
  921.      In this trace, when  the  keep-alive  timer  expires,  9  keepalive
  922.      probes  are sent at 75 second intervals.  75 seconds after the last
  923.      probe is sent, a final RST segment is sent indicating that the con-
  924.      nection  has  been  closed.   This  implementation  waits  about 11
  925.      minutes before timing out the connection, while the first implemen-
  926.      tation shown allows only 5 seconds.
  927.  
  928.  
  929. References
  930.      This problem is documented in [Dawson97].
  931.  
  932.  
  933. How to detect
  934.      For implementations manifesting this problem,  it  shows  up  on  a
  935.      packet  trace  after  the keepalive timer fires if the peer machine
  936.      receiving the keepalive does not respond.   Usually  the  keepalive
  937.      timer  will  fire  at least two hours after keepalive is turned on,
  938.      but it may be sooner if the timer value has been configured  lower,
  939.      or  if  the  keepalive  mechanism  violates  the specification (see
  940.      Insufficient interval between keepalives problem).  In  this  exam-
  941.      ple,  suppressing  the response of the peer to keepalive probes was
  942.      accomplished using the Orchestra toolkit, which can  be  configured
  943.      to  drop  packets.  It could also have been done by creating a con-
  944.      nection, turning on keepalive, and disconnecting the  network  con-
  945.      nection at the receiver machine.
  946.  
  947.  
  948. How to fix
  949.      This problem can be fixed by using a different  method  for  timing
  950.  
  951.  
  952.  
  953. Paxson, Editor                                                 [Page 16]
  954.  
  955.  
  956.  
  957.  
  958.  
  959. ID                 Known TCP Implementation Problems           July 1997
  960.  
  961.  
  962.      out keepalives that allows a longer period of time to elapse before
  963.      dropping the connection.  For example, the algorithm for timing out
  964.      on dropped data could be used.  Another possibility is an algorithm
  965.      such as the one shown in the trace above, which sends 9  probes  at
  966.      75  second  intervals and then waits an additional 75 seconds for a
  967.      response before closing the connection.
  968.  
  969.  
  970. 3.6. Insufficient interval between keepalives
  971.  
  972.  
  973. Classification
  974.      Reliability
  975.  
  976.  
  977. Description
  978.      Keep-alive is a mechanism for checking whether an  idle  connection
  979.      is  still alive.  According to RFC-1122, keep-alive may be included
  980.      in an implementation.  If it  is  included,  the  interval  between
  981.      keep-alive  packets  MUST  be  configurable, and MUST default to no
  982.      less than two hours.
  983.  
  984.  
  985. Significance
  986.      In congested networks, can lead to unwarranted termination of  con-
  987.      nections.
  988.  
  989.  
  990. Implications
  991.      According to RFC-1122, keep-alive is not  required  of  implementa-
  992.      tions  because  it  could:  (1) cause perfectly good connections to
  993.      break during transient Internet failures; (2)  consume  unnecessary
  994.      bandwidth  ("if  no one is using the connection, who cares if it is
  995.      still good?"); and (3) cost money for an Internet path that charges
  996.      for  packets.   If  keepalive  is  provided the RFC states that the
  997.      required inter-keepalive distance MUST default to no less than  two
  998.      hours.   If  it  does  not, the probability of connections breaking
  999.      increases, the bandwidth used due to keepalives increases, and cost
  1000.      increases over paths which charge per packet.
  1001.  
  1002.  
  1003. Relevant RFCs
  1004.      RFC 1122 specifies that the keep-alive mechanism may  be  provided.
  1005.      It  also  specifies  the  two hour minimum for the default interval
  1006.      between keepalive probes.
  1007.  
  1008.  
  1009. Trace file demonstrating it
  1010.  
  1011.  
  1012.  
  1013. Paxson, Editor                                                 [Page 17]
  1014.  
  1015.  
  1016.  
  1017.  
  1018.  
  1019. ID                 Known TCP Implementation Problems           July 1997
  1020.  
  1021.  
  1022.      Made using the Orchestra tool at the  peer  of  the  machine  using
  1023.      keep-alive.   Machine  A was configured to use default settings for
  1024.      the keepalive timer.
  1025.  
  1026.      11:36:32.910000 A > B: 3288354305:0      win 28672 datasz 4 SYN
  1027.      11:36:32.930000 B > A: 896001:3288354306 win 4096  datasz 4 SYN ACK
  1028.      11:36:32.950000 A > B: 3288354306:896002 win 28672 datasz 0 ACK
  1029.  
  1030.      11:50:01.190000 A > B: 3288354305:896002 win 28672 datasz 0 ACK
  1031.      11:50:01.210000 B > A: 896002:3288354306 win 4096  datasz 0 ACK
  1032.  
  1033.      12:03:29.410000 A > B: 3288354305:896002 win 28672 datasz 0 ACK
  1034.      12:03:29.430000 B > A: 896002:3288354306 win 4096  datasz 0 ACK
  1035.  
  1036.      12:16:57.630000 A > B: 3288354305:896002 win 28672 datasz 0 ACK
  1037.      12:16:57.650000 B > A: 896002:3288354306 win 4096  datasz 0 ACK
  1038.  
  1039.      12:30:25.850000 A > B: 3288354305:896002 win 28672 datasz 0 ACK
  1040.      12:30:25.870000 B > A: 896002:3288354306 win 4096  datasz 0 ACK
  1041.  
  1042.      12:43:54.070000 A > B: 3288354305:896002 win 28672 datasz 0 ACK
  1043.      12:43:54.090000 B > A: 896002:3288354306 win 4096  datasz 0 ACK
  1044.  
  1045.      The initial three packets  are  the  SYN  exchange  for  connection
  1046.      setup.   About  13 minutes later, the keepalive timer fires because
  1047.      the connection is idle.  The keepalive  is  acknowledged,  and  the
  1048.      timer  fires again in about 13 more minutes.  This behavior contin-
  1049.      ues indefinitely until the connection is closed, and is a violation
  1050.      of the specification.
  1051.  
  1052.  
  1053. Trace file demonstrating correct behavior
  1054.      Made using the Orchestra tool at the  peer  of  the  machine  using
  1055.      keep-alive.   Machine  A was configured to use default settings for
  1056.      the keepalive timer.
  1057.  
  1058.      17:37:20.500000 A > B: 34155521:0       win 4096 datasz 4 SYN
  1059.      17:37:20.520000 B > A: 6272001:34155522 win 4096 datasz 4 SYN ACK
  1060.      17:37:20.540000 A > B: 34155522:6272002 win 4096 datasz 0 ACK
  1061.  
  1062.      19:37:25.430000 A > B: 34155521:6272002 win 4096 datasz 0 ACK
  1063.      19:37:25.450000 B > A: 6272002:34155522 win 4096 datasz 0 ACK
  1064.  
  1065.      21:37:30.560000 A > B: 34155521:6272002 win 4096 datasz 0 ACK
  1066.      21:37:30.570000 B > A: 6272002:34155522 win 4096 datasz 0 ACK
  1067.  
  1068.      23:37:35.580000 A > B: 34155521:6272002 win 4096 datasz 0 ACK
  1069.      23:37:35.600000 B > A: 6272002:34155522 win 4096 datasz 0 ACK
  1070.  
  1071.  
  1072.  
  1073. Paxson, Editor                                                 [Page 18]
  1074.  
  1075.  
  1076.  
  1077.  
  1078.  
  1079. ID                 Known TCP Implementation Problems           July 1997
  1080.  
  1081.  
  1082.      01:37:40.620000 A > B: 34155521:6272002 win 4096 datasz 0 ACK
  1083.      01:37:40.640000 B > A: 6272002:34155522 win 4096 datasz 0 ACK
  1084.  
  1085.      03:37:45.590000 A > B: 34155521:6272002 win 4096 datasz 0 ACK
  1086.      03:37:45.610000 B > A: 6272002:34155522 win 4096 datasz 0 ACK
  1087.  
  1088.      The initial three packets  are  the  SYN  exchange  for  connection
  1089.      setup.   Just  over  two  hours  later,  the  keepalive timer fires
  1090.      because the connection is idle.  The keepalive is acknowledged, and
  1091.      the  timer  fires  again  just over two hours later.  This behavior
  1092.      continues indefinitely until the connection is closed.
  1093.  
  1094.  
  1095. References
  1096.      This problem is documented in [Dawson97].
  1097.  
  1098.  
  1099. How to detect
  1100.      For implementations manifesting this problem,  it  shows  up  on  a
  1101.      packet trace.  If the connection is left idle, the keepalive probes
  1102.      will arrive closer together than the two hour minimum.
  1103.  
  1104.  
  1105. 4. Security Considerations
  1106.  
  1107.    This version of this  memo  does  not  discuss  any  security-related
  1108.    implementation problems.  Futures versions most likely will, so secu-
  1109.    rity considerations will require revisiting.
  1110.  
  1111.  
  1112. 5. Acknowledgements
  1113.  
  1114.    Thanks to numerous correspondents on the tcp-impl  mailing  list  for
  1115.    their  input: Steve Alexander, Mark Allman, Larry Backman, Jerry Chu,
  1116.    Alan Cox, Kevin Fall, Richard Fox, Jim Gettys,  Rick  Jones,  Allison
  1117.    Mankin,  Perry  Metzger, der Mouse, Thomas Narten, Andras Olah, Steve
  1118.    Parker, Francesco Potorti`, Luigi Rizzo,  Allyn  Romanow,  Al  Smith,
  1119.    Jerry Toporek, Joe Touch, and Curtis Villamizar.
  1120.  
  1121.  
  1122. 6. References
  1123.  
  1124.  
  1125. [Dawson97]
  1126.      S. Dawson, F. Jahanian, and T. Mitton, "Experiments on Six  Commer-
  1127.      cial TCP Implementations Using a Software Fault Injection Tool," to
  1128.      appear in Software Practice & Experience, 1997.  A technical report
  1129.      version     of     this     paper     can     be     obtained    at
  1130.  
  1131.  
  1132.  
  1133. Paxson, Editor                                                 [Page 19]
  1134.  
  1135.  
  1136.  
  1137.  
  1138.  
  1139. ID                 Known TCP Implementation Problems           July 1997
  1140.  
  1141.  
  1142.      ftp://rtcl.eecs.umich.edu/outgoing/sdawson/CSE-TR-298-96.ps.gz.
  1143.  
  1144. [Jacobson88]
  1145.      V. Jacobson, "Congestion Avoidance and Control," Proc. SIGCOMM '88.
  1146.      ftp://ftp.ee.lbl.gov/papers/congavoid.ps.Z
  1147.  
  1148. [Paxson97]
  1149.      V. Paxson, "Automated Packet  Trace  Analysis  of  TCP  Implementa-
  1150.      tions," available in draft form from vern@ee.lbl.gov, Feb. 1997.
  1151.  
  1152. [RFC896]
  1153.      J. Nagle, "Congestion Control in IP/TCP Internetworks," Jan. 1984.
  1154.  
  1155. [RFC1122]
  1156.      R. Braden, Editor, "Requirements for Internet Hosts  --  Communica-
  1157.      tion Layers," Oct. 1989.
  1158.  
  1159. [RFC2001]
  1160.      W. Stevens, "TCP Slow Start, Congestion Avoidance, Fast Retransmit,
  1161.      and Fast Recovery Algorithms," Jan. 1997.
  1162.  
  1163.  
  1164. 7. Authors' Addresses
  1165.  
  1166.    Vern Paxson <vern@ee.lbl.gov>
  1167.    Network Research Group
  1168.    Lawrence Berkeley National Laboratory
  1169.    Berkeley, CA 94720
  1170.    USA
  1171.    Phone: +1 510/486-7504
  1172.  
  1173.    Scott Dawson <sdawson@eecs.umich.edu>
  1174.    Real-Time Computing Laboratory
  1175.    EECS Building
  1176.    University of Michigan
  1177.    Ann Arbor, MI  48109-2122
  1178.    USA
  1179.    Phone: +1 313/763-5363
  1180.  
  1181.  
  1182.  
  1183.  
  1184.  
  1185.  
  1186.  
  1187.  
  1188.  
  1189.  
  1190.  
  1191.  
  1192.  
  1193. Paxson, Editor                                                 [Page 20]
  1194.  
  1195.  
  1196.