home *** CD-ROM | disk | FTP | other *** search
/ Internet Info 1997 December / Internet_Info_CD-ROM_Walnut_Creek_December_1997.iso / ietf / bmwg / bmwg-minutes-95jul.txt < prev    next >
Text File  |  1995-10-18  |  8KB  |  185 lines

  1.  
  2. CURRENT_MEETING_REPORT_
  3.  
  4. Reported by Guy Almes/Advanced Network and Services
  5.  
  6. Minutes of the Benchmarking Methodology Working Group (BMWG)
  7.  
  8.  
  9.  
  10. Introduction
  11.  
  12. At the Danvers IETF, there was a BOF held to consider the need for a set
  13. of IP Provider Metrics (IPPM). Between the Danvers and Stockholm IETFs,
  14. it was agreed (at least provisionally) to structure any IPPM effort
  15. within the BMWG; Guy Almes would organize this effort as a new co-chair
  16. of the BMWG. Accordingly, the BMWG met at Stockholm for the sole purpose
  17. of initiating a new effort to produce IP Provider Metrics.  Guy chaired
  18. the session.
  19.  
  20. The chair used a set of slides to organize the session.  These slides
  21. are reproduced following these minutes.  The written minutes will
  22. emphasize those points not in the slides or where there was significant
  23. discussion on points that are present in the slides.  In the minutes,
  24. the notation [slide k] will be used to refer to the kth slide.
  25.  
  26.  
  27.  
  28. Internet Growth
  29.  
  30. As context, it was noted that the Internet was growing in complexity
  31. along a number of dimensions [slide 2].  Further, while the Internet was
  32. once a consciously cooperative technical effort in which the operators
  33. of Internet components would (comparatively) easily share information,
  34. it has become a consciously competitive market in which operators of
  35. Internet components are (comparatively) reluctant to share information
  36. about the performance and reliability of their networks.
  37.  
  38.  
  39.  
  40. General Criteria for IPPM
  41.  
  42. General criteria for IP Provider Metrics were then discussed [slide 4].
  43. It was stressed several times that we would need to be very careful to
  44. avoid biased metrics, and that the metrics and methodologies that result
  45. from our work should benefit both users and providers.  Scott Bradner
  46. noted that, based on earlier BMWG experience, vendors will `build to
  47. metrics', and that we should therefore keep this in mind as we define
  48. our metrics (rather than naively wishing that providers will not `build
  49. to metrics'.
  50.  
  51. In all the examples of path performance metrics, Scott noted that there
  52. were three important kinds of cases:
  53.  
  54.  
  55.   1. Measures of the IP path between a pair of specific sites,
  56.  
  57.   2. Measures of the IP path from one specific site to a (conceptually)
  58.      large number of Internet sites, and
  59.  
  60.   3. Measures of the IP paths among a specific set of sites, as when an
  61.      organisation uses an IP service as a `virtual private data
  62.      network'.
  63.  
  64.  
  65. In a closely related comment, it was noted that Internet exchange points
  66. might play a key role in allowing us to characterise IP paths in a way
  67. that would allow paths to be composed of two or more IP path segments
  68. (e.g., site to exchange point and exchange point to exchange point).  In
  69. some cases, a metric might have the property that the metric for a
  70. complete path could be estimated from metrics of the IP path segments.
  71. This would enable interesting methodologies relating to some cases in
  72. the previous paragraph.
  73.  
  74. It was also noted that the cost of performing a given measurement should
  75. be considered as a criterion.
  76.  
  77.  
  78. An Initial Set of Needs for Metrics
  79.  
  80. About half of the group's time was devoted to discussing an initial set
  81. of needs for metrics.  The first set of needs concerns the performance
  82. and reliability of paths through the Internet [slide 6].  It was noted
  83. that in many cases, paths from a user site to key Internet exchange
  84. points would be of great importance.  Of the path performance metrics
  85. discussed, delay was comparatively easy to measure.
  86.  
  87. Single-application and aggregate flow capacity is more difficult to
  88. measure for several reasons:
  89.  
  90.  
  91.    o Tests of flow capacity are hard to do without inducing congestion
  92.      within the network, thus negatively affecting other users,
  93.  
  94.    o The flow capacity of a network depends both on the networks
  95.      technical qualities and on the current load being placed on the
  96.      network,
  97.  
  98.    o In some cases, users care about the expectation of flow capacity at
  99.      a typical time; in other cases, they care about near-worst-case
  100.      flow capacity; thus, measuring flow capacity in the presence of
  101.      90th percentile congestion might be useful, and
  102.  
  103.    o In some cases (as with distributed interactive simulation)
  104.      near-real-time flows might need to be sustained, while in others
  105.      flow capacity measured over several seconds might suffice.  Thus,
  106.      for a number of reasons, flow capacity is more difficult to define
  107.      and to measure than delay.
  108.  
  109.  
  110. In addition to congestion affecting any measurement of flow capacity
  111. through a network, it was pointed out that a network's robustness in the
  112. presence of congestion might be an important property to measure.
  113.  
  114. Reliability is also important but hard to define/measure.
  115.  
  116. In discussions of several of these IP path performance metrics, Scott
  117. asked us to consider whether we might include both black box metrics
  118. (i.e., viewing the IP path only from the boundaries of IP `clouds') and
  119. white box metrics (i.e., viewing also the state of routers and lines
  120. within the `cloud').
  121.  
  122. In discussion, someone mentioned that, of course, any measure that a
  123. user could measure from the border of an IP cloud could also be measured
  124. by the provider of that cloud.  This would be valuable, of course, so
  125. that the provider could anticipate and avoid situations in which the
  126. performance of the IP cloud would be or appear to be poor as seen by the
  127. user.  Guy noted that, rather than taking this as an assumption, we
  128. should state it as a desirable property of path performance metrics that
  129. we design.
  130.  
  131. Gary Malkin observed that we should keep in mind that most users will be
  132. new to Internet engineering and of limited technical sophistication.  In
  133. discussion, it was noted that we would want simple tools usable directly
  134. by naive users and more sophisticated tools usable both by sophisticated
  135. users, by IP providers, and by organisations functioning as advisers to
  136. naive (or sophisticated) users.
  137.  
  138. There was considerable discussion of routing stability [slide 7].  Some
  139. felt that the dynamic properties of end-to-end availability, quickness
  140. of recovery, and stability were merely technical causes of reliability,
  141. and thus not a separate metric in and of themselves.
  142.  
  143. The discussion of DNS performance metrics struck a positive chord [slide
  144. 8].  In addition to performance (in the narrow sense) Ruediger Volk
  145. suggested that stability and reliability of a DNS service were
  146. important.
  147.  
  148. Similarly, NTP service, Web-server service, and NetNews service were
  149. thought to be value added services that could be dealt with in a manner
  150. similar the treatment of DNS service (assuming that we could do a good
  151. job of that).
  152.  
  153. On the other hand, several were pessimistic that useful metrics could
  154. arise in the NOC responsiveness area.
  155.  
  156.  
  157.  
  158. Administrative Issues
  159.  
  160. At the conclusion of the session, we dealt with several administrative
  161. issues [slide 13]:
  162.  
  163.  
  164.    o We agreed that for the present we would operate within the BMWG.
  165.  
  166.    o Guy will work to reorganise the IPPM mailing list.  The list of
  167.      those attending the present session will be added to the current
  168.      IPPM list, and people will then be asked to confirm that they want
  169.      to be on the list.
  170.  
  171.    o Scott Bradner stressed the importance of deliverables, specifically
  172.      Internet-Drafts that would progress to Informational RFCs.  Example
  173.      topics include:
  174.  
  175.       -  General metric criteria, and
  176.  
  177.       -  Descriptions of proposed specific metrics.
  178.  
  179.  
  180.    o Guy said that an IPPM session might be called before the next IETF
  181.      meeting.  Specifically, one might be called to meet in Pittsburgh
  182.      in early September (adjacent in time to the coming NANOG meeting
  183.      there).
  184.  
  185.