home *** CD-ROM | disk | FTP | other *** search
/ Internet Info 1997 December / Internet_Info_CD-ROM_Walnut_Creek_December_1997.iso / ietf / mospf / mospf-minutes-90feb.txt < prev    next >
Text File  |  1993-02-17  |  9KB  |  210 lines

  1.  
  2.  
  3. CURRENT_MEETING_REPORT_
  4.  
  5.  
  6. February 6, 1990 Held at Tallahassee IETF meeting Chaired in Steve's
  7. absence by J. Moy/Proteon Minutes also written by J. Moy
  8.  
  9. MINUTES
  10.  
  11. This was the initial meeting of the MOSPF working group.  John Moy
  12. presented a number of slides to introduce the subject of multicast
  13. routing .  The slides also attempted to discuss the main areas where the
  14. OSPF protocol needs to be changed/extended in order to provide multicast
  15. support.
  16.  
  17. The slide discussion was broken up into the following areas:
  18.  
  19.  
  20.    o o There was a short introduction into IP multicasting, including
  21.      the Internet Group Management Protocol (IGMP, RFC 1112).  IGMP is
  22.      responsible for maintaining host group membership.  Multicast
  23.      routers must support IGMP (although in multicast OSPF only the
  24.      Designated router will be actively sending/receiving IGMP
  25.      messages).  Through using IGMP, a multicast router knows which
  26.      multicast destinations are active on its attached LANs, but does
  27.      not need to keep track of which particular hosts are requesting
  28.      them (this is a considerable savings).
  29.    o o A brief (and very incomplete) survey of multicast routing was
  30.      attempted.  This was done through examination of Steve Deering's
  31.      "Multicast routing in Internetworks and Extended LANs" paper.  This
  32.      paper discusses a number of multicast routing methodologies:  an
  33.      extension to the learning bridges to better support multicast, four
  34.      separate Bellman-Ford multicast routing algorithms (arranged in
  35.      order of increasing functionality and complexity) and a link-state
  36.      multicast algorithm.  Finally, a mix of these approaches is
  37.      explored for internet-wide multicast (and the wild-card multicast
  38.      group is introduced).
  39.      The most functional Bellman-Ford multicast algorithm in Steve's
  40.      paper has been implemnted for BSD UNIX and is documented in RFC
  41.      1075.
  42.      It is expected that the multicast OSPF extensions will closely
  43.      follow the link-state multicast algorithm in Steve's paper.
  44.    o o The basic mechanism behind link-state multicasting was explored.
  45.      A shortest-path tree is built having as root the multicast
  46.      datagram's source.  Those branches not containing the specified
  47.      multicast destination are then pruned.  This tree then yields the
  48.      multicast datagram's path.
  49.      At each hop, the multicast datagram is sent as a link-level
  50.      multicast (or broadcast).  For this reason, multicast routers
  51.      receive all multicast packets (i.e., must open up their multicast
  52.      filters).
  53.      The above trees are built on demand, and the results are cached
  54.      (see below).
  55.  
  56.                                    1
  57.  
  58.  
  59.  
  60.  
  61.  
  62.  
  63. o o Cache entries are used to store the results of the above SPF
  64.   calculation.  For each tree built (there is potentially a different
  65.   tree for each [source net, multicast destination] pair), a cache
  66.   entry is formed.  The cache entry specifies the interface expected
  67.   to receive the datagram, and the set of interfaces that the
  68.   datagram should be forwarded out.
  69.   Note that this proposed cache structure is slightly different than
  70.   the one in Steve's paper.  First, it skips caching whole subtrees
  71.   (implementation experience with OSPF shows that subtree caching is
  72.   a lot of work), and it simplifies things by ignoring TTL.
  73.   A separate tree (and a separate cache entry) will also possibly be
  74.   calculated for each TOS value.  The entire cache must be cleared on
  75.   topology changes.  When a group's membership changes, only cache
  76.   entries pertaining to that destination need be flushed.
  77. o o The changes and additions to the OSPF protocol are expected to be
  78.   slight.  This is because OSPF already maintains a complete
  79.   topological map of the routing domain, enabling the multicast tree
  80.   calculation.  The expected changes to OSPF include the following:
  81.   1) During the Dijkstra calculation, routing table entries (e.g.,
  82.   for net X) will be marked with their corresponding "transit node".
  83.   This node will be the root for multicast tree calculations having
  84.   net X as datagram source.
  85. o o Expected additions to OSPF include the following:  1) OSPF
  86.   Designated Routers (DRs) will need to speak IGMP. 2) There will be
  87.   a new link state advertisement (type 6) that routers will originate
  88.   when there are multicast destinations on attached LANs.  There will
  89.   be separate advertisements for each multicast destination.  These
  90.   advertisements will be originated by DRs only.  This additional
  91.   link state information will enable tree pruning.  3) There will
  92.   probably be a new bit in the router links advertisement indicating
  93.   "multicast-capable".  This allows some routers in the AS to decline
  94.   multicast support.  4) The multicast tree calculation must be made
  95.   deterministic; i.e., all routers must calculate the same tree in
  96.   the presence of multiple equal-cost routes.
  97. o o Inter-area multicast will be a little more complicated.  This is
  98.   because when the datagram source is in another area, the local
  99.   topology surrounding the source is hidden, inhibiting the multicast
  100.   tree calculation.  In this case, we propose forming a tree for each
  101.   of the other areas.  Each tree can be thought of as still being
  102.   rooted at the datagram source; there will be a link from the
  103.   datagram's source to each of the area's border routers.  The cost
  104.   of these links will be that advertised by the area border routers
  105.   in their summary link advertisements (note reverse direction).  The
  106.   rest of the tree will (as in the intra-area case) deals only with
  107.   the area's own topology.
  108.  
  109.  
  110.                          datagram source
  111.                                         :
  112.                          ----------------
  113.                          :    :    :    :
  114.                          :    :    :    :
  115.                         ABR  ABR  ABR  ABR
  116.                          |    |         |
  117.  
  118.                                 2
  119.  
  120.  
  121.  
  122.  
  123.  
  124.  
  125.                                         -------
  126.                                         |
  127.  
  128.      A multicast datagram enters the area through the border border
  129.      routers.  The above scheme works only if area border routers are
  130.      "wild-card" multicast receivers (i.e., receive all muticast
  131.      packets).
  132.      The logic for when the source of the datagram is exterior to the AS
  133.      should be similar to the inter-area case.
  134.  
  135.  
  136. The following questions were raised by the slides.  Bob Hinden asked
  137. whether there were any estimates for the CPU usage consumed by the
  138. potentially large number of tree calculations.  In a related question,
  139. Chuck Davin wondered about the expected distribution of host group
  140. memberships (e.g., number per LAN and lifetime).  These questions were
  141. put off, hopefully for Steve Deering to answer.
  142.  
  143. Scott Brim questioned the behavior of the above inter-area multicasting
  144. scheme in the presence of asymmetric paths.  He thought that there might
  145. be the possibility of packet looping.  This issue should be looked into
  146. further.
  147.  
  148. Besides the above, the following issues were brought up:
  149.  
  150.  
  151.    o Should the multicast specification be written as a separate
  152.      document, or should it simply depend on RFC 1131 (the OSPF
  153.      specification)?
  154.    o If we do not require all of the routers to be multicast-capable, is
  155.      the possibility of reduced functionality acceptable?
  156.    o How much backward compatibility should there be with the present
  157.      OSPF protocol?
  158.    o Should we try to be more efficient in inter-area multicasting, and
  159.      drop the requirement that border routers be wild-card multicast
  160.      receivers?
  161.  
  162.  
  163. FUTURE MEETINGS
  164.  
  165. We intend to begin writing the specification for OSPF multicast
  166. extensions.  This will be done primarily through communications on the
  167. mospf mailing list (mospf@devvax.tn.cornell.edu).
  168.  
  169. There will be a MOSPF WG meeting at the next IETF (Pittsburgh).  Also,
  170. if enough progress is made between meeting, we will attempt to schedule
  171. the teleconferencing facilities.
  172.  
  173. ATTENDEES
  174.  
  175.  
  176.     John Cavanaugh           johncavanaugh@stpaul.ncr.com
  177.  
  178.                                    3
  179.  
  180.  
  181.  
  182.  
  183.  
  184.  
  185. Rob Coltun               rcoltun@umds.umd.edu
  186. Samir K. Chatterjee      samir@nynexst.com
  187. George Clapp             meritec!clapp@bellcore.bellcore.com
  188. Daniel Kellen            kellen@odixie.enet.dec.com
  189. Stan Froyd               sfroyd@salt.acc.com
  190. James R. Davin           jrd@ptt.lcs.mit.edu
  191. Douglas Bagnall          bagnall-d@apollo.hp.com
  192. Metin Feridun            mferidun@bbn.com
  193. Tom Easterday            tom@nisca.ircc.ohio-state.edu
  194. Ballard Bare             bare%hprnd@hplabs.hp.com
  195. Cathy Aronson            cja@merit.edu
  196. Bob Hinden               hinden@bbn.com
  197. Frank Solensky           solensky@interlna.com
  198. Dave Miller              dtm@mitre.org
  199. Tim Seaver               tas@mcnc.org
  200. Joel Replogle            replogel@ncsa.uiuc.edu
  201. Tony Mason               mason@transarc.com
  202. Farokh Deboo             fjd@interlink.com
  203. Dino Farinacci           dino@bridge2.3com.com
  204. Jeffrey Burgan           jeff@nsipo.nasa.gov
  205. Dave O'Leary             oleary@noc.sura.net
  206.  
  207.  
  208.  
  209.                                4
  210.