home *** CD-ROM | disk | FTP | other *** search
/ Internet Info 1997 December / Internet_Info_CD-ROM_Walnut_Creek_December_1997.iso / ietf / bmwg / bmwg-minutes-97aug.txt < prev   
Text File  |  1997-10-10  |  14KB  |  272 lines

  1. Minutes of the Benchmarking Methodology Working Group (BMWG)
  2.  
  3. Reported by Kevin Dubray
  4.  
  5.  
  6.      The BMWG met at the 39th IETF in Munich on 12 Aug 97.  The session was 
  7. attended by 55 people.  
  8.  
  9.      The agenda was approved as presented.  The major topics discussed were:
  10.  
  11.         1.  draft-ietf-bmwg-lanswitch-06.txt
  12.         2.  draft-ietf-bmwg-mcast-02.txt
  13.         3.  draft-ietf-bmwg-secperf-00.txt
  14.  
  15.      A question was asked as to why the Cell/Call Terminology draft was 
  16. removed from this session's agenda.  The chair informed the group that 
  17. the editor had recently changed employers and was unable to affect the 
  18. changes mandated at the Memphis meeting in the required time frame.
  19.  
  20.      In addition, the chair further announced that the IPPM effort was being
  21. detached from the BMWG.  As such, the BMWG charter was being amended to
  22. reflect this separation.  The chair announced a draft of the revised BMWG
  23. charter had been submitted to the Area Directors.
  24.  
  25.  
  26. 1. Benchmarking Terminology for LAN Switching Devices.
  27.  
  28.      Dubray stated that it appeared that the LAN Switch terminology draft was 
  29. nearing Last Call status.  With that he introduced Bob Mandeville to lead a 
  30. discussion to fine tune the draft in preparation of its Last Call.
  31.  
  32.      Bob mentioned that one of the items that he would like to modify 
  33. is to return the term "one-to-one mapped traffic," item 3.3.1. to the 
  34. original wording in a earlier draft, "non-mesh traffic."  David Newman 
  35. articulated that when many people talk to him about the condition conveyed 
  36. by one-to-one mapped traffic, they called it "non-mesh."  Dubray stated that 
  37. while the two terms are very related, they are different.  He further stated 
  38. that one-to-one mapping has industry precedence in several benchmarking 
  39. applications.  Jim McQuaid suggested that perhaps an effective 
  40. compromise would be to keep the generic term, non-mesh traffic, but give 
  41. it the the meaning of "one-to-one mapped traffic."  The group agreed 
  42. that this would be an acceptable workaround.
  43.  
  44.      However, Newman stated that he had issues with the use of non-meshed 
  45. traffic distribution in benchmarking scenarios.  Dubray noted that use of one 
  46. traffic distribution pattern over another was really a methodological 
  47. detail best left to the future methodology document. 
  48.  
  49.      On the burst related terms, section 3.4, Bob asked the group whether the
  50. notion of capture effect should be introduced in the terminology draft or in 
  51. the subsequent methodology document.  There was a general feeling that the 
  52. mention of capture effect as an "issue" was suffice and a detailed accounting 
  53. for the issue in the related methodology document was reasonable.
  54.  
  55.      Dubray raised some other minor issues:
  56.  
  57.      1.  He did not see the need of the last paragraph of section 3.2.3.
  58.      2.  The example chart in the discussion of Maximum Forwarding Rate had 
  59.          the incorrect entry of Offered Rate versus Offered Load.
  60.      3.  In the discussion of the term OLOAD, wording should be added that
  61.          obliges the report of Oload in association with Forwarding Rate.
  62.  
  63.      Bob articulated that he would also like to change the last paragraph 
  64. in term 3.2.3 by dropping it and re-introducing related wording from a 
  65. previous draft.
  66.  
  67.     Bob commented there was an additional paragraph in the draft that he wished
  68. to discuss with Scott Bradner before modifying.  Bob also mention that there
  69. was a query as to why multicast was not considered in the LAN switch draft.
  70. Bob stated that his reply was there was an explicit multicast draft in
  71. progress.
  72.  
  73.     With the discussion of the LAN switch draft drawing to a close, Mandeville 
  74. turned the floor over to Dubray.  Dubray queried the group as to whether they
  75. felt a Working Group Last Call was appropriate for the document when the
  76. the proposed modifications were folded into a subsequent draft.  Most to all
  77. indicated that it was appropriate.  In response to a connected question, 
  78. a short review of the steps associated with taking a draft to an 
  79. Informational RFC was presented.  The AD, John Curran, verified that the 
  80. procedure was correct.
  81.  
  82.  
  83. 2. Terminology for IP Multicast Benchmarking.
  84.  
  85.     The next item on the docket was the discussion of the Multicast 
  86. Benchmarking Terminology draft.  Dubray gave a very brief recap of the Memphis 
  87. presentation.  He then went over the 3 major modifications to the current
  88. draft:
  89.  
  90.     1.  Moving the basic nomenclature (e.g., Iload, Oload, Forwarding Rate,
  91.         etc.) to the LAN Switch Terminology document.
  92.     2.  Changing the name of term 3.1.1, Flow, to Traffic Class.
  93.     3.  Replacing the Scaled Group Throughput (SGT) metric with Scaled Group
  94.         Forwarding Matrix (SGFM).
  95.  
  96.      The first item was straightforward; there was no associated discussion.  
  97.  
  98.      On the second item, there was agreement that the identification of 
  99. logical equivalence classes of traffic was a good and needed thing.  
  100. There was not any disagreement with regards to the recasting of the term 
  101. "Flow" to "Traffic Class."  Dubray pointed out that the definition of 
  102. Traffic Class cascaded down to two related definitions, Group Class and 
  103. Service Class.  The group noted the definition of Service Class was a
  104. particularly a good thing.
  105.  
  106.      On the topic of Scaled Group Forwarding Matrix, Dubray differentiated 
  107. between that term and its predecessor, Scaled Group Throughput.  In a slide,
  108. (mcast-02, slide 5), Dubray showed the power of the SGT metric in contrasting
  109. between throughputs of various target multicast groups in a single DUT 
  110. scenario.  In the next slide (mcast-02, slide 6), Dubray demonstrated the 
  111. issue that Scott Bradner and others had with the SGT metric:  it did not lend 
  112. itself to straightforward comparisons across multiple DUTs (represented by the 
  113. various shade bars) because of the moving baseline, Throughput, as represented
  114. by the horizontal lines. 
  115.  
  116.       Dubray said the metric was reworked to allow for better comparison by 
  117. using Forwarding Rate as the baselining mechanism.  A target Forwarding Rate 
  118. can be easily be ascertained from a known Offered Load, thereby serving as 
  119. a baseline or fixed reference for the tested devices in a particular 
  120. configuration.
  121.  
  122.      Dubray indicated some general problems with the multicast forwarding
  123. benchmarks.  The currently proposed benchmarks do not consider multiple 
  124. source addresses.  Nor do they consider many-to-many relationships.  In 
  125. general, he said, multicast was problematic in its characterization because 
  126. there were potentially "many axes" to consider when conveying results.
  127.  
  128.      Others in the group were quick to point out that other factors may
  129. need to be conveyed, such as forwarding decisions as a function of forwarding
  130. rate.  Jim McQuaid believed that expanding benchmarks beyond the standard
  131. two dimensions was fast becoming a requirement across other BMWG actions,
  132. such as the Network Security Device Terminology draft.  Dubray stated that
  133. he would be very receptive to suggestions with regards to generic wording, 
  134. were it applicable.  He cautioned, however, that generic wording sometimes
  135. lacked the specificity required to convey the information needed for
  136. correct and consistent interpretation of the metric with regards to 
  137. a particular test case.  
  138.  
  139.      Coming back directly to multicast, Dubray noted that in other 
  140. multicast-related working groups, it seemed to be a pervasive 
  141. understanding that the current scenario where multicast is most mature 
  142. is the one source-to-many destinations scenario.  While a similar focus is 
  143. most likely sufficient for this draft, Dubray invited others to participate 
  144. in adapting the benchmarks for many-to-many test cases.
  145.  
  146.  
  147. 3. Benchmarking Terminology for Network Security Devices.
  148.  
  149.      David Newman was introduced to lead a discussion of the
  150. initial draft on "Benchmarking Terminology for Network
  151. Security Devices."  David was immediately greeted with a variety
  152. of input:
  153.  
  154.       - Avoid redefining previously defined BMWG terminology. 
  155.       - Use, if needed, the term's "Discussion" section to articulate 
  156.         interpretation details of previously defined terms in the context 
  157.         of draft.
  158.       - Consider reworking the usage of the terms "multi-homed"
  159.         and "policy".
  160.       - Presentation style: Consider using Table of Contents and
  161.         group related concepts together. This may "flow" better than
  162.         presenting the terms alphabetically.
  163.  
  164.      David thanked the group for its input; he went on to say that the
  165. document, in its initial form, is a seed document.  He had hoped 
  166. to elicit a discussion from which the future direction of the
  167. draft could be better determined.  Specifically, he had a
  168. a few basic questions for the purposes of the draft.
  169.  
  170.       - What is a security device? 
  171.       - At what layer in the 7 layer OSI model are measurements
  172.         useful with regards to security device performance? And what
  173.         do you measure? 
  174.       - Does security device architecture matter?
  175.  
  176.    During the discussion of the first question, "What is a security device,"
  177. there was much talk over features and access.  One person commented that
  178. the word "access" was itself an ambiguous concept - ambiguous enough
  179. to warrant caution should one decide to use it to  build a definition 
  180. for a security device.
  181.  
  182. Another idea presented was synchronizing the definition of a security
  183. device with the work done in the IPSEC area.  Newman commented that
  184. would be fine for a Layer 3 centric approach, but was that enough?
  185.  
  186. Another discussion on the defining features for a security device ensued.
  187. John Curran commented that an idea of methodology and a notion of what 
  188. would be done with a defined term is as important as the term itself.
  189. There is no utility in defining a metric that can't be gathered or 
  190. a term that is too difficult to define.  For instance, it may be
  191. better to discretely focus on firewall performance than to address
  192. the performance of "security devices."
  193.  
  194. It was conceded that this question required further thought and
  195. discussion. 
  196.  
  197. David focused the group on the second question: At what Layer do
  198. we measure security device performance?  For example, should the
  199. focus be on "sessions" or "packets"?
  200.  
  201. A reinforcing idea from an attendee stated that the aforementioned
  202. division excluded ATM security services in lieu of IP security services.
  203. Another comment suggested that useful metrics may not necessarily reside 
  204. exclusively on "one Layer."  Useful metrics may be had by combining
  205. data points from multiple layers, such as plotting authentication rate
  206. against traffic forwarding rate.  
  207.  
  208. Bob Mandeville offered the general observation that "you can mix what 
  209. you well define."
  210.  
  211. Someone raised the question of test configurations. Was it more
  212. important to scrutinize a single device or a security solution built
  213. from heterogeneous components acting as some black box?  Many were of
  214. the mind that the black box approach was more realistic.
  215.  
  216. John Curran re-stated that this effort would have a better chance
  217. of success if activity were undertaken to limit the effort's scope - 
  218. decide to specialize on Network Address Translation, encryption, 
  219. web proxy, etc.
  220.  
  221. Others thought that providing a more narrow set of metrics to be 
  222. applied to a varied set of security devices may be useful as well. 
  223. Jim McQuaid, stated that one such metric, throughput, maybe be 
  224. better suited for the task at hand than a forwarding rate type of
  225. metric.  It was important to ascertain the rate at which there was
  226. no loss of policy enforcement.
  227.  
  228. A question was raised during the throughput vs. forwarding rate
  229. discussion of how does one differentiate router functionality versus
  230. security device functionality - especially in light of the fact
  231. that many routers now embed "security" features?  Another security
  232. device feature discussion ensued.
  233.  
  234. David refocused the group by rephrasing the second question: What and
  235. where do you measure?  There was some discussion about the benefits
  236. of measuring "PDUs" versus other values.  Dubray stated you measure 
  237. what has relative importance in the context of the characterization; 
  238. it may be a forwarding rate, it may be some generic transaction rate. 
  239.  
  240. There was a discussion of characterizing functionality versus 
  241. characterizing performance.  Some thought that conformance testing
  242. was needed to enforce interoperability.  Dubray interjected the
  243. IETF line: "The IETF is not in the conformance test business."  He
  244. also noted, however, that the methodological qualifier "correctly" was a 
  245. very powerful word.
  246.  
  247. The discussion turned full circle when it was commented that 
  248. Curran's original suggestion to de-scope the effort to 
  249. focus on firewall testing was not unappealing.  Newman countered
  250. with that was OK, but time and again we will return to referencing
  251. a wider set of features.
  252.  
  253. With regards to the last question, "Does device architecture
  254. matter," most thought that it really did not matter.  There
  255. may be divisions of where you look, such as Layer 2/Layer 3 for
  256. addressed-based scrutiny or Layer 7 for Proxy related issues.  However,
  257. in the end, it is the treatment of the data unit that matters.
  258.  
  259. As time was waning, David thanked people for their input and 
  260. asked folks to continue to give him feedback.
  261.  
  262. Dubray reviewed the goals for next period:
  263.  
  264.     - Prepare for WG Last Call on the LAN switch draft;
  265.     - Update and reissue the Cell/Call Terminology draft;
  266.     - Continue the multicast draft discussion and reissue
  267.       draft as necessary.
  268.     - Progress the Security Device Benchmarking Terminology
  269.       Draft.
  270.     - Post the revised BMWG charter.
  271.  
  272.