home *** CD-ROM | disk | FTP | other *** search
/ Internet Info 1997 December / Internet_Info_CD-ROM_Walnut_Creek_December_1997.iso / ietf / idmr / idmr-minutes-95jul.txt < prev    next >
Text File  |  1995-10-18  |  11KB  |  254 lines

  1.  
  2. CURRENT_MEETING_REPORT_
  3.  
  4. Reported by Bill Fenner/Xerox PARC
  5.  
  6. Minutes of the Inter-Domain Multicast Routing Working Group (IDMR)
  7.  
  8. The IDMR Working Group met twice at the 33rd IETF in Stockholm.  The
  9. first session was held on Tuesday, 18 July, and the second session on
  10. Wednesday, 19 July.
  11.  
  12.  
  13. First Session
  14.  
  15. The first session was shorter than expected due to some agenda juggling.
  16.  
  17. Tony Ballardie, IDMR co-chair, mentioned the new IDMR Working Group URL:
  18.  
  19.  
  20.      http://www.cs.ucl.ac.uk/ietf/idmr
  21.  
  22.  
  23. Ken Carlberg's Presentation
  24.  
  25. Ken Carlberg, of SAIC, provided a further report on Harris's simulation
  26. efforts.  Harris is simulating the performance of CBT and PIM for a
  27. Distributed Interactive Simulation (DIS -- think ``interactive video
  28. gaming'') environment.  (Steve Batsell gave a presentation at Danvers on
  29. DIS requirements).  Ken said that Harris has put out a technical report
  30. describing their simulation and results, but it is not yet available
  31. publicly.  Contact Bibb Cain <cain@rigel.ess.harris.com> or Steve
  32. Batsell <batsell@itd.nrl.navy.mil> for availability of the report.
  33.  
  34. The results Ken presented used two different topologies:  the AAI
  35. topology (which is basically a single loop), and an artificial mesh
  36. topology with average node degree of 3.
  37.  
  38. Several measurements were simulated.
  39.  
  40.  
  41.    o End-to-end delay using PIM-sparse and source-based trees was 15%
  42.      (AAI) to 30% (mesh) lower than CBT.
  43.  
  44.    o Bandwidth efficiency (protocol overhead) was approximately equal
  45.      for PIM-sparse, using both shared and source-based trees, and CBT.
  46.      PIM-dense protocol overhead was much higher.
  47.  
  48.    o PIM-sparse with unicast to RP on the AAI has end-to-end delays that
  49.      are 60% higher than with CBT, and uses 50% more bandwidth.
  50.  
  51.  
  52.    o Routing table size was significantly smaller using CBT than PIM.
  53.      With 20,000 groups and 200 senders to each group and 50% group
  54.      membership, PIM-sparse with source based trees uses 3,010,000
  55.      routing table entries but CBT only uses 10,000.
  56.  
  57.  
  58. Based upon these simulation results, Harris recommends:
  59.  
  60.  
  61.    o CBT should be used to support DIS applications.
  62.  
  63.    o PIM should be modified such that the decision on source-based tree
  64.      mode vs.  shared-tree mode should be made by group initiator rather
  65.      than receivers.  Classifying a group for its whole lifetime reduces
  66.      the complexity of switching trees and can reduce routing table
  67.      size.
  68.  
  69.  
  70. Eric Crawley's Presentation
  71.  
  72. The second presenter was Eric Crawley, from Bay Networks.  Eric talked
  73. about experience gained from implementing CBT in a router.  Eric
  74. suggested a new mode for CBT, called ``native mode''.  When all the
  75. multicast routers on a subnet use CBT, there is no need to encapsulate
  76. traffic with the CBT header, thus saving extra traffic on a shared
  77. subnet.  The DR Selection algorithm increases join times and can be
  78. optimized in the case when a router knows that it is the only CBT router
  79. on the network, but it would be nice to find a faster algorithm for the
  80. general case.  CBT also takes less room in forwarding tables, since
  81. there is only one entry per group, instead of one per source and group.
  82. The tree-setup phase of CBT also means that resources can be allocated
  83. while building the tree, and if resource reservation fails alternate
  84. tree paths may be tried, without need for modifications to the core
  85. protocol.  Eric plans to collect data comparing performance of DVMRP and
  86. CBT on the same platform.
  87.  
  88.  
  89. Ross Finlayson's Presentation
  90.  
  91. The final presenter was Ross Finlayson, who talked about automatic
  92. multicast tunnelling through a firewall.  Ross implemented a system that
  93. uses `sd', the session directory, to identify candidates to be relayed
  94. across the firewall.  The portion inside the firewall periodically sends
  95. a `ping' to each candidate group, with a high enough TTL to reach all
  96. internal nodes.  If it gets a response to its `ping', there is an
  97. internal member, and it notifies the portion outside the firewall to
  98. start forwarding traffic.  The firewall uses a set of application-level
  99. gateways to forward traffic, so that other data on the same multicast
  100. address cannot get through.  The decision was made to trust the MBONE
  101. tools (`vat', `wb', `sd', etc.)  as there are never any commands
  102. directly transmitted, just multimedia data.
  103.  
  104.  
  105. Second Session
  106.  
  107. Bill Fenner's Presentation
  108.  
  109. Bill Fenner from Xerox PARC spoke about Hierarchical Multicast Routing
  110. for the MBONE. The MBONE is growing at an extreme rate, and is still
  111. using a single instance of DVMRP, a RIP-like protocol that was designed
  112. to handle at most a couple of hundred routes.  It is currently handling
  113. thousands of routes, and the routing tables continue to grow.  Moving to
  114. hierarchical routing will solve many problems, such as route instability
  115. by isolating routing problems to the domain in which they occur, and
  116. will allow the testing of new multicast routing protocols without
  117. interfering with global multicast routing.
  118.  
  119. To ease the transition to hierarchical routing, the requirements for
  120. Level 1 (intra-domain) routers are kept small:
  121.  
  122.  
  123.    o Participate in a Domain-Wide Report protocol, similar to IGMP. The
  124.      DWR protocol allows domain membership to be known by the Level 2
  125.      (inter-domain) routers.
  126.  
  127.    o Supply the Level 2 border routers with a list of address prefixes
  128.      describing the networks inside the domain.  This allows the Level 2
  129.      routers to determine whether a multicast packet is from an internal
  130.      source or is transit from another domain.
  131.  
  132.    o Deliver copies of all internally-generated traffic with sufficient
  133.      scope to all Level 2 border routers.
  134.  
  135.    o Accept and propagate a ``default'' multicast route.
  136.  
  137.  
  138. The initial Level 2 (inter-domain) protocol will be a modification of
  139. DVMRP. In hierarchical DVMRP, each domain is assigned an identifier and
  140. packets are routed at Level 2 on their domain-identifier.  Level 2
  141. routers use a special all-border-routers multicast group in the Level 1
  142. multicast domain for transit traffic, and to allow injection of packets
  143. from each border router.  This can cause duplicate traffic, as the
  144. encapsulated and non-encapsulated forms of a packet may traverse the
  145. same link.  However, it is expected that proper placement of domain
  146. boundaries can solve this problem, and that a domain will generally
  147. either be transit (in which case the traffic is solely encapsulated) or
  148. leaf (in which case the traffic is solely un-encapsulated).
  149.  
  150. A paper on hierarchical DVMRP by Ajit Thyagarajan and Steve Deering that
  151. describes hierarchical DVMRP in more detail is available from:
  152.  
  153. ftp://ftp.parc.xerox.com/pub/net-research/mbone/hierarchical-dvmrp.ps.Z
  154.  
  155. When PIM is used in a Level 1 domain, a subset of the border routers are
  156. designated as RPs for groups with no global RP. When there is an
  157. internal source, it sends a Register to one of these border routers,
  158. which informs the other border routers and they join the distribution
  159. tree for the group.  This allows the injection of internal traffic to
  160. all L2 border routers.  For incoming traffic, the internal receivers
  161. join to the same RP, which is adjacent to the L2 border router, and data
  162. flows down the (*,G) tree.
  163.  
  164. With PIM at Level 2, it actually appears to be a single large PIM
  165. domain, using the hierarchy inherent in unicast routing.  This is
  166. because it is expected that the hierarchy boundaries will be the same
  167. for unicast and multicast routing, and since the routers already have
  168. the unicast routing table there is no need to add another one
  169. paralleling it.
  170.  
  171. Note that some of this functionality will change as the Level 2 protocol
  172. evolves (e.g., changing from DVMRP to PIM-sparse).  Changes can be
  173. isolated to multicast border routers, placed at the L1/L2 boundary.  (In
  174. fact, MBRs will probably be implemented on the same machine as the L2
  175. router, but that is not a requirement).
  176.  
  177. It is unclear whether there is a single L1<>L2 interaction that can be
  178. defined.  It may be that 4 will suffice (`Dense'<>`Dense' protocol,
  179. `Dense'<>`Sparse', S<>S, S<>D), but it is not clear yet whether that
  180. is either necessary or sufficient.  Further research is required on the
  181. topic of this interaction.
  182.  
  183.  
  184.  
  185. Tony Ballardie's Presentation
  186.  
  187. Tony Ballardie from UCL then spoke on hierarchical routing as it applies
  188. to CBT. When using CBT as a Level 2 protocol, the Level 2 border routers
  189. must have a way to choose or discover the Level 2 cores for a group.
  190. This may be via domain-wide reports, or some other mechanism.  The
  191. Level 2 tree must be built before data can be forwarded; this may result
  192. in some data loss depending on the size of queues and the speed of
  193. creating the tree branch.  This is considered acceptable since it is
  194. better than flooding the data everywhere.
  195.  
  196. When the Level 1 protocol is CBT, the injecting border router unicasts a
  197. CBT-encapsulated copy of the packet to an internal core if there are
  198. internal members.  The address of the internal core is included in the
  199. domain-wide report.  All groups have internal cores, whether they are
  200. inter-domain or intra-domain.  In addition, if the packet must transit
  201. this domain, the border router sends it on the all-border-routers group,
  202. using the Level 2 DVMRP encapsulation.
  203.  
  204. For sources within a Level 1 CBT cloud, the ``master core'' forwards the
  205. packet to the core of the Level 2 all-border-routers group.  There was
  206. some discussion as to how the intra-domain core knows what kind of
  207. encapsulation the packet should use, and it was resolved that this issue
  208. needs more investigation, as it is unwise to require all internal cores
  209. to have knowledge of the Level 2 protocol.
  210.  
  211.  
  212. Deborah Estrin's Presentation
  213.  
  214. Deborah Estrin presented a PIM specification update over the MBONE from
  215. Los Angeles.  MBONE quality from LA to Stockholm was extremely
  216. impressive.  Recent changes in the PIM specification include:
  217.  
  218.  
  219.    o Separation of the document into individual Sparse and Dense mode
  220.      documents.
  221.  
  222.    o Major editorial changes and updated figures.
  223.  
  224.    o New RP mechanisms integrated.
  225.  
  226.    o Changes in packet formats.
  227.  
  228.  
  229. The new RP mechanism was described at the Danvers IETF, and is now
  230. incorporated into the specification.  There were several new messages
  231. (Register-Ack, Candidate-RP-Advertisement, and Poll), changed messages
  232. (Join/Prune, Register, RP-Reachability), and obsolete messages
  233. (Register-Stop).  The updated specification will be submitted as an
  234. Internet-Draft, but until it is, an interim version is available from:
  235.  
  236.  
  237.      ftp://catarina.usc.edu/pub/pim/PIM-SM.ps
  238.  
  239.  
  240. Also see PIM-SM.diffs in the same directory for details of the
  241. specification changes.
  242.  
  243.  
  244. Open Discussion
  245.  
  246. An open discussion followed on how the IDMR working group should
  247. advance.  It is clear that the working group charter needs to be
  248. revised, as all of the milestones listed have passed.  It was suggested
  249. that PIM and CBT should be submitted as Experimental RFCs.  Hierarchical
  250. routing looks promising to help solve some of the routing problems, but
  251. it is still too early to know what problems will crop up with it (i.e.,
  252. will the L1<>L2 interactions end up being an n-squared problem?).
  253.  
  254.