home *** CD-ROM | disk | FTP | other *** search
/ Internet Info 1997 December / Internet_Info_CD-ROM_Walnut_Creek_December_1997.iso / ietf / bmwg / bmwg-minutes-95dec.txt < prev    next >
Text File  |  1996-06-03  |  12KB  |  295 lines

  1. CURRENT MEETING REPORT
  2.  
  3.  
  4. Minutes of the Benchmarking Methodology Working Group (BMWG)
  5.  
  6. Reported by Jim McQuaid, Bay Networks, Inc.
  7.  
  8.  
  9. SESSION ONE
  10.  
  11.  
  12. 1. Current Internet Draft document on ╥Network Element╙ testing.
  13.  
  14. Jim McQuaid reviewed the status of this document as shown below:
  15.  
  16.  
  17. o  "Nearly done"                1993-1994
  18.  
  19. o  "Final" editing pass            February, 1995
  20.  
  21.     o  (appendices incorporated; version 01 posted)
  22.  
  23. o  Reviewed by area director (MO)    August 1995
  24.  
  25.     o  (edited to reflect comments; version 02 posted)
  26.  
  27.  
  28. McQuaid briefly highlighted some of the changes in the 01 to 02 edit 
  29. for the benefit of those unfamiliar with the current document.  These 
  30. include:
  31.  
  32. o the insertion of language in section 4.0 "Evaluating the Results," 
  33. reminding readers about the statistical issues in testing, which are 
  34. otherwise not discussed in the draft, 
  35.  
  36. o in the section 7.0 "DUT Set Up," the change from SHOULD to MUST 
  37. regarding reporting the exact configuration and set of enabled 
  38. functions for the device under test,
  39.  
  40. o and, in the section 9.4, "Frame sizes in the presence of disparate 
  41. MTUs," the need to test up to the limits of the largest MTU are 
  42. emphasized.
  43.  
  44.  
  45. The group then reviewed the remaining issues/points of discussion 
  46. raised against the 02 version of the draft.  Each was resolved as 
  47. follows.
  48.  
  49.  
  50. 1.1    Latency definition used in section 26.2, "Latency".
  51.  
  52. An inconsistency was pointed out in this section.  RFC 1242 
  53. describes two possible latency measurement definitions, 
  54. identified as "store and forward" and "bit forwarding" devices.  
  55. The implicit definition in this section is a hybrid.  It was 
  56. agreed to remove the definition from this section and reference 
  57. the two definitions in RFC 1242.  Testing should report which 
  58. definition was used.
  59.  
  60. 1.2    Formula in section 26.5, "System Recovery".
  61.  
  62. The formula currently stated in this section is inadvertantly 
  63. backwards.  System recovery is measured from timestamp A to 
  64. timestamp B but the draft says to compute A-B.  It was agreed 
  65. that B-A is the correct statement of the method.
  66.  
  67. 1.3    Scope of SNMP testing/Management Frame, Section C.2.4.3, 
  68. "Management Query Frame".
  69.  
  70. The actual frame could be added to this section, but the draft is 
  71. sufficiently complete without it to go forward.
  72.  
  73. It was clarified that the scope of the information requested by 
  74. this SNMP frame should be for a single interface only, not for 
  75. some other list of possible interfaces installed.
  76.  
  77.  
  78. It was agreed that the document should be revised to version 03 and 
  79. posted in January.  At that time there will be a last call and the draft 
  80. will be forwarded to be published as an informational RFC.  There was 
  81. some discussion about whether or not this document fit in the new 
  82. category of "Best current practice" documents and it was agreed that it 
  83. did not really qualify for that.
  84.  
  85. Before the next topic was taken up-and as an important transition issue-
  86. the question of the life cycle of this draft in the light of future 
  87. developments was discussed.  After discussion there was general 
  88. agreement to the idea that the current ID should be published and 
  89. that, as with RFC 1242, it would serve as a reference document for 
  90. future efforts.  Therefore a future document on switch testing, for 
  91. example, need only discuss the points of difference with the ╥basic╙ 
  92. methodology described in the current draft.  In effect, all the set up, 
  93. reporting and other aspects of the methodology could be incorporated 
  94. by reference into newer methodology drafts.
  95.  
  96.  
  97. 2. Ethernet Switch testing discussion
  98.  
  99. Bob Mandeville and Ajay Shah presented some of the thinking behind 
  100. the draft document circulated to the BMWG list (but not yet posted 
  101. anywhere, read on).  A lively discussion of about one hour raised a 
  102. number of questions which will be addressed in the next draft.  A 
  103. partial draft that addresses some of the most contentious areas will be 
  104. circulated to the list in January and, subsequently, a new ID will be 
  105. posted.  Bob Mandeville presented several important supplemental 
  106. thoughts and figures.  This material is available as a PDF file 
  107. (Acrobat).
  108.  
  109. The major question raised concerned the complex relationship of offered 
  110. load, bi-directional traffic, Ethernet collisions and media limits versus 
  111. switch limits.  This issue is the foremost issue to be resolved.  Some of 
  112. the sub-issues raised in this discussion are listed below as 2.1.
  113.  
  114. 2.1  Throughput: pattern of switching and loading
  115.  
  116. 2.1.1 Determinate vs. Random vs. Cycled addressing of load 
  117. synchronization? collisions - media
  118.  
  119. 2.1.2  Overload, define it
  120.     Q of congestion?
  121.     Q of multiport?
  122.  
  123. 2.1.3  Unidirectional vs. Bidir
  124.  
  125. 2.1.4  Burst size / burst pattern / interframe/burst gap [too tied to 
  126. tester architecture?]
  127.  
  128. 2.1.5  Q of resonance / phase-lock (6 in, 6 out) in other words, could 
  129. a specific burst pattern result in a specific output pattern 
  130. which has some ╘magic╒ frequency resonance for a given 
  131. device?
  132.  
  133. The following issues were raised and proved to be much less 
  134. controversial.
  135.  
  136. 2.2  Behavior tests
  137.     is A to B affected by congestion on C to D?
  138.     handling of errored frames [runts, etc.]
  139.  
  140. 2.3  Address handling / learning
  141.  
  142. 3.  Call setup testing discussion
  143.  
  144.  
  145.  
  146. This was an exploratory discussion. Three scenarios were proposed as 
  147. possible benchmarking frameworks.
  148.  
  149.  
  150.                        -----
  151.    frames offered --->| DUT |-----> frames forwarded
  152.                        -----
  153.  
  154. Figure A, simple call setup benchmark 
  155.  
  156.  
  157.                        -----
  158.    frames offered --->| DUT |
  159.                       |     |<----> call setup
  160.    call READY ACK <---|     |
  161.                       |     |
  162.                        -----
  163.  
  164. Figure B, call setup ACK benchmark
  165.  
  166.  
  167.                        -----
  168.    frames offered --->| DUT |
  169.                       |     |(<----> call setup)
  170.    call READY ACK <---|     |
  171.                       |     |-----> frames forwarded
  172.                        -----
  173.  
  174. Figure C, call setup and data forwarding benchmark
  175.  
  176.  
  177. One of the points raised was a question about other metrics already 
  178. established in the telephony world for benchmarking those such as 
  179. Figure C.  Shikhar Bajaj volunteered to look into this matter.  He later 
  180. circulated (to the BMWG list) a summary of a BOF on this topic at the 
  181. ATM FORUM meeting in London.  This was sent out by Gregan Crauford, 
  182. chair of the TEST Working Group.
  183.  
  184. McQuaid reviewed the ITU-T Revised Draft/Recommendation I.35bcp, 
  185. dated 7/95, entitled "Call processing performance for a B-ISDN."  This 
  186. discusses benchmark setups similar to Figure C above and gives target 
  187. objectives for 'national, international and end to end' telephone 
  188. networks.  A target of roughly 1350 milliseconds plus propagation delay 
  189. is cited for national networks.
  190.  
  191.  
  192.  
  193.  
  194. SESSION TWO
  195.  
  196. Reported by Guy T Almes <almes@advanced.org>
  197.  
  198. The working group met in a second session that was devoted to the IPPM 
  199. agenda and chaired by Guy Almes.
  200.  
  201. The chair used a set of slides to organize the session.  These slides have 
  202. been reproduced and follow these minutes.  The written minutes will 
  203. emphasize those points not in the slides or where there was significant 
  204. discussion on points that are present in the slides.  In the minutes, we 
  205. will use the notation [slide k] to refer to the kth slide.
  206.  
  207. The session began with a review of the IPPM BOF at Danvers, the 
  208. IPPM/BMWG Meeting at Stockholm, and the interim IPPM/BMWG 
  209. meeting at Pittsburgh in September [slide 3].  Further, the general 
  210. qualities of metrics we want to define were discussed [slides 4 and 5].
  211.  
  212. There then began a series of four brainstorming discussion.  The first 
  213. discussion [slide 6] focused on Delay Metrics.  We discussed various 
  214. technical issues in delay measurements, including the importance of 
  215. pinging 'through' routers rather than 'to' routers.  Another was the 
  216. impact of caches on attempts to accurately measure delay.  We then 
  217. discussed various motivations for measuring delay, among which were 
  218. the following:
  219.  
  220. o  To measure the presence and degree of congestion in an IP cloud.  For 
  221. example, if the baseline delay through a given lightly loaded 
  222. cloud is known, then delay above that baseline is a measure of 
  223. congestion of the cloud (or of fallback or erroneous routing through 
  224. the cloud).  One particularly interesting example of a delay 
  225. measurement being used by one provider (Geoff Huston of Telstra) 
  226. was to measure the percentage of time that delay across a cloud 
  227. exceeds a given threshold.  If the percentage above this threshold 
  228. exceeds a given amount, then it is taken as an indicator that service 
  229. is unsatisfactory.
  230.  
  231. o  To measure the likelihood that telnet, or some other delay-
  232. intolerant application, will work effectively.  In all these 
  233. discussions, Mike O'Dell noted that we need an improved 
  234. understanding of the phenomenology surrounding IP clouds before 
  235. we would really understand what to measure.  The importance of 
  236. understanding both the unloaded delay and the delay under load 
  237. was discussed.
  238.  
  239. The second discussion [slide 7] focused on Flow Capacity.  An important 
  240. distinction exists between the ability of a cloud to sustain a single 
  241. high-speed flow (as in remote access to a supercomputer) and the 
  242. ability of a cloud to sustain a large number of small flows (as with a 
  243. large number of http GETs).  Treno attempts to measure the former (cf. 
  244. http://www.psc.edu/~pscnoc/treno.html).  A related issue includes the  
  245. measures of packet loss and variance of delay, since these will frustrate 
  246. the ability of TCP flow control to be effective.  Mike O'Dell used the 
  247. term 'hit and run flows' to characterize the large number of brief 
  248. connections that appear due to the Web.  Non-TCP flows, such as voice-
  249. over-UDP and MBone flows, are also important to measure and 
  250. understand.  It was noted that while users desire to understand the 
  251. ability of a given cloud to carry traffic, providers desire to understand 
  252. the nature of 'offered load'.  Sean Doran noted that the techniques we 
  253. were discussing, both in delay measurement and with treno-like tools, 
  254. would work better if routers implemented an ability to rapidly receive 
  255. certain probe packets, reverse the source and destination addresses, and 
  256. fire them back to the sender; this would dramatically improve the 
  257. accuracy and reduce the overhead of such measurements when routers 
  258. are subject of tests.  Also discussed was the conjecture raised at the 
  259. Pittsburgh meeting, that an ongoing estimate of flow capacity might be 
  260. possible by combining (1) a baseline measurement of flow capacity, and 
  261. (2) an ongoing measurement of variations in round-trip delay.  In this 
  262. context, it was noted that the Network Time Protocol (NTP) 
  263. implementation of Dave Mills maintained such an ongoing record of 
  264. measured delay.
  265.  
  266. A third, very brief, discussion focused on Availability [slide 8] metrics.  
  267. Though a significant issue in the eyes of users (and therefore 
  268. providers), the press of time prevented a thorough discussion.
  269.  
  270. The fourth discussion focused on the role of router surrogates, or 
  271. 'transponders', located at strategic locations on the Internet.  Jamshid 
  272. Mahdavi presented some slides on this topic.  He noted that the 
  273. Internet could largely be modeled as a graph whose vertices were clouds 
  274. and exchange points, and whose vertices were connections from the 
  275. clouds to exchange points.  Two interesting issues were:
  276.  
  277. o  Whether such transponders should be placed (a) at exchange points, 
  278. (b) just inside clouds near exchange points, (c) at user sites, or (d) 
  279. some combination of these.
  280.  
  281. o  Whether such transponders should be (1) passive, responding, for 
  282. example, to ping or treno probes, (2) active, initiating measurements 
  283. among each other and storing the results for public distribution 
  284. {using, for example, the techniques documented by the OpStat 
  285. Working Group] and available to users via the Web.
  286.  
  287. The session closed with a talk by Steve Corbato of the University of 
  288. Washington.  He described an approach to analyzing real-time 
  289. network performance based on occasional fast (1-2 Hz) SNMP polling of 
  290. router interfaces.  His presentation example focused on the aggregate 
  291. flow characteristics across a campus Internet border router.  His slides 
  292. are available at: 
  293. http://weber.u.washington.edu/~corbato/ippmtalk/.
  294.  
  295.