home *** CD-ROM | disk | FTP | other *** search
/ Internet Info 1997 December / Internet_Info_CD-ROM_Walnut_Creek_December_1997.iso / drafts / draft_ietf_j_p / draft-ietf-mboned-imrp-some-issues-01.txt < prev    next >
Text File  |  1997-03-12  |  26KB  |  714 lines

  1. MBONE Deployment Working Group                               David Meyer
  2. Internet Draft                                      University of Oregon
  3. Expiration Date:                               September 1997 March 1997
  4.  
  5.  
  6.       Some Issues for an Inter-domain Multicast Routing Protocol
  7.  
  8.  
  9.                draft-ietf-mboned-imrp-some-issues-01.txt
  10.  
  11.  
  12. 1. Status Of This Memo
  13.  
  14.    This document is an Internet-Draft.  Internet-Drafts are working
  15.    documents of the Internet Engineering Task Force (IETF), its areas,
  16.    and its working groups.  Note that other groups may also distribute
  17.    working documents as Internet-Drafts.
  18.  
  19.    Internet-Drafts are draft documents valid for a maximum of six months
  20.    and may be updated, replaced, or obsoleted by other documents at any
  21.    time.  It is inappropriate to use Internet-Drafts as reference
  22.    material or to cite them other than as ``work in progress.''
  23.  
  24.    To learn the current status of any Internet-Draft, please check the
  25.    ``1id-abstracts.txt'' listing contained in the Internet-Drafts Shadow
  26.    Directories on ftp.is.co.za (Africa), nic.nordu.net (Europe),
  27.    munnari.oz.au (Pacific Rim), ds.internic.net (US East Coast), or
  28.    ftp.isi.edu (US West Coast).
  29.  
  30.  
  31. 2. Introduction
  32.  
  33.    The IETF's Inter-Domain Multicast Routing (IDMR) working group has
  34.    produced several multicast routing protocols, including Core Based
  35.    Trees [CBT] and Protocol Independent Multicasting [PIMARCH]. In
  36.    addition, the IDMR WG has formalized the specification of the
  37.    Distance Vector Multicast Routing Protocol [DVMRP]. Various
  38.    specifications for protocol inter-operation have also been produced
  39.    (see, for example, [THALER96] and [PIMMBR]). However, none of these
  40.    protocols seems ideally suited to the inter-domain routing case; that
  41.    is, while these protocols are appropriate for the intra-domain
  42.    routing environment, they break down in various ways when applied in
  43.    to the multi-provider inter-domain case.
  44.  
  45.    This document considers some of the scaling, stability and policy
  46.    issues that are of primary importance in a inter-domain, multi-
  47.    provider multicast environment.
  48.  
  49.  
  50.  
  51. David Meyer                                             FORMFEED[Page 1]
  52.  
  53.  
  54.  
  55.  
  56.  
  57. Internet Draft draft-ietf-mboned-imrp-some-issues-01.txt      March 1997
  58.  
  59.  
  60. 3. Forwarding State Requirements
  61.  
  62.    Any scalable protocol will have to minimize forwarding state
  63.    requirements. In the case of dense mode protocols [DVMRP,PIM-DM],
  64.    routers may carry forwarding or prune state for every (S,G) pair in
  65.    the Internet. This is true even for routers that may not be on any
  66.    delivery tree. It seems likely that as multicast deployment scales to
  67.    the size of the Internet, maintenance of (S,G) state will become
  68.    intractable.
  69.  
  70.    Shared tree protocols, on the other hand, have the advantage of
  71.    maintaining a single (*,G) entry for a group's receivers (thus
  72.    relaxing the requirement of maintaining (S,G) for the entire
  73.    Internet). However, this is not without its own disadvantages; see
  74.    the section on "Third-party Resource Dependencies" below.
  75.  
  76.  
  77. 4. Forwarding State Distribution
  78.  
  79.    The objective of a multicast forwarding state distribution mechanism
  80.    is to ensure that multicast traffic is efficiently distributed to
  81.    those parts of the topology where there are receivers. Dense and
  82.    sparse mode protocols will accept differing overheads based on design
  83.    tradeoffs. In the dense mode case, the data-driven nature state
  84.    distribution has disadvantage that data is periodically distributed
  85.    to branches of the distribution tree which don't have receivers
  86.    ("Flood and Prune" behavior). It seems unlikely that this mechanism
  87.    will be scalable to Internet-wide case.
  88.  
  89.    On the other hand, sparse mode protocols use receiver-initiated,
  90.    explicit joins to establish a forwarding path along a shared
  91.    distribution tree. While the on-demand nature of sparse mode
  92.    protocols have favorable properties with respect to distribution of
  93.    forwarding state, it also has the possible disadvantage of creating
  94.    dependencies on shared resources (again, see the section on "Third-
  95.    Party Resource Dependencies" below).
  96.  
  97.  
  98.  
  99.  
  100.  
  101.  
  102.  
  103.  
  104.  
  105.  
  106.  
  107.  
  108.  
  109.  
  110.  
  111. David Meyer                                             FORMFEED[Page 2]
  112.  
  113.  
  114.  
  115.  
  116.  
  117. Internet Draft draft-ietf-mboned-imrp-some-issues-01.txt      March 1997
  118.  
  119.  
  120. 5. Forwarding State Maintenance
  121.  
  122.    The many current multicast protocols attempt to accurately and
  123.    rapidly maintain distribution trees that are as close to the tree of
  124.    shortest-path routes (as defined by unicast) as possible. This means
  125.    that the shape of a distribution tree can be rapidly changing. In
  126.    addition, since distribution trees can be global, they can be subject
  127.    to high frequency control traffic.
  128.  
  129.    In contrast, the focus in the inter-domain unicast routing
  130.    environment is on minimizing routing traffic (see, for example,
  131.    [VILLAM95]), and controlling stability [LABOV97]. The implication is
  132.    that protocol overhead and stability must be controlled if we hope
  133.    multicast to scale to Internet sizes. Thus it seems likely that
  134.    Inter-domain multicast routing protocols will have to do less
  135.    forwarding state maintenance, and hence be less aggressive in
  136.    reshaping distribution trees. Note that this reshaping is related to
  137.    what has been termed "routing flux" (again, see [LABOV97]), since the
  138.    routing traffic does not directly affect path selection. Rather, the
  139.    primary effect is to require significant processing resources in a
  140.    border router. Finally, note that unlike the unicast case, we do not
  141.    have good data characterizing this effect for multicast routers.
  142.  
  143.  
  144. 5.1. Bursty Source Problem
  145.  
  146.    When a source's inter-burst period is longer than the router state
  147.    timeout period, some or all of a source's packets can be lost. This
  148.    effect has been termed the "Bursty Source Problem" [ESTRIN97]. The
  149.    current set of multicast routing protocols attempt, where possible,
  150.    to avoid this problem (i.e., maximize response to bursty sources).
  151.  
  152.  
  153. 6. Mixed Control
  154.  
  155.    Mixing control of topology discovery and distribution tree
  156.    construction can lead to efficiencies but also imposes various
  157.    constraints on topology discovery mechanisms. For example, DVMRP
  158.    [DVMRP] uses topology discovery facilities ("split horizon with
  159.    poison reverse")  to eliminate duplicate packets on a LAN, and to
  160.    detect non-leaf networks (an upstream router uses this information
  161.    when pruning downstream interfaces).
  162.  
  163.    On the other hand, PIM [PIM-DM] does not use any topology discovery
  164.    algorithm features when building delivery trees. However, this
  165.    independence is not without cost: PIM-DM accepts some duplicates on
  166.    multi-access LANs as a tradeoff for reduced protocol complexity.
  167.  
  168.  
  169.  
  170.  
  171. David Meyer                                             FORMFEED[Page 3]
  172.  
  173.  
  174.  
  175.  
  176.  
  177. Internet Draft draft-ietf-mboned-imrp-some-issues-01.txt      March 1997
  178.  
  179.  
  180. 7. Neighbor Model
  181.  
  182.    The current inter-domain unicast routing model has some key
  183.    differences with proposed inter-domain multicast routing models with
  184.    respect to neighbor (peer) discovery. In particular, the current set
  185.    of multicast protocols depend heavily on dynamic neighbor discovery.
  186.    This is analogous to the situation with intra-domain unicast routing,
  187.    but is unlike current inter-domain unicast routing, where neighbors
  188.    are typically statically configured.
  189.  
  190.    The static neighbor configuration model has several benefits for
  191.    inter-domain routing. First, neighbors are predefined, which is a
  192.    policy requirement in most cases. In addition, the set of peers in
  193.    the inter-domain unicast routing system defines the set of possible
  194.    inter-domain topologies (with the current active topology represented
  195.    by the collection of AS paths).
  196.  
  197.    Another important difference relates to how inter-domain regions are
  198.    modeled. For purposes of this document, consider an inter-domain
  199.    region defined to be a part of an arbitrary topology in which a
  200.    higher level (inter-domain) routing protocol is used to calculate
  201.    paths between regions. In addition, each pair of adjacent regions is
  202.    connected by one or more multicast border routers. Current IDMR
  203.    proposals (e.g., [HDVMRP], [THALER96]) model an inter-domain region
  204.    as a routing domain. That is, border routers internetwork between one
  205.    or more intra-domain regions and an inter-domain region (again,
  206.    possibly more than one). In this model, inter-networking occurs
  207.    "inside" router. However, the inter-provider unicast routing model in
  208.    use today is quite different.  In particular, the  "peering" between
  209.    two providers occurs in neither of the provider's routing domains,
  210.    nor does it occur in some shared "inter-domain" routing domain. The
  211.    separation provides the administrative and policy control that is
  212.    required in today's Internet.
  213.  
  214.  
  215.  
  216. 8. Unicast Topology Dependency
  217.  
  218.    Ideally, unicast and multicast topologies are congruent in the
  219.    Internet. However, since it is frequently difficult to field new
  220.    facilities (such as IP multicast) in the "core" the Internet
  221.    infrastructure, there will continue to be many cases in which unicast
  222.    and multicast topologies are not congruent (either because a region
  223.    is not multicast capable at all, or because the region is not
  224.    natively forwarding multicast traffic). Thus, it is unlikely that the
  225.    entire IPv4 Internet will be able to carry native multicast traffic
  226.    in the foreseeable future. In addition, various policy requirements
  227.    will in certain cases cause to topologies to further diverge. The
  228.  
  229.  
  230.  
  231. David Meyer                                             FORMFEED[Page 4]
  232.  
  233.  
  234.  
  235.  
  236.  
  237. Internet Draft draft-ietf-mboned-imrp-some-issues-01.txt      March 1997
  238.  
  239.  
  240.    implication is that a successful IDMR will need a topology discover
  241.    mechanism, or have other mechanisms for dealing with those cases in
  242.    which unicast and multicast topologies are not congruent.
  243.  
  244.  
  245. 8.1. Multicast Policies and Unicast Routes
  246.  
  247.    Multicast and unicast packet forwarding algorithms assign different
  248.    semantics to a unicast route. In particular, if a router B accepts a
  249.    route from router A covering prefix P, then B will to forward packets
  250.    "to" those destinations covered by P, using A as the next hop when
  251.    forwarding unicast packets. However, in the multicast case, the same
  252.    route means B will accept packets "from" sources covered by P (though
  253.    not necessarily from A, but through the same interface as is used to
  254.    reach A). It is this difference in unicast route semantics that makes
  255.    formulation of precise multicast policy difficult.
  256.  
  257.  
  258.  
  259. 9. Third-Party Resource Dependencies
  260.  
  261.    Shared tree protocols require one or more globally shared Rendezvous
  262.    Points (RPs) [PIM-SM] or Cores [CBT]. The RP or Core effectively
  263.    serves as the root of a group specific shared tree. Data is sent to
  264.    the RP/Core for delivery on the shared tree. This means that some
  265.    groups may have an RP (or core) that is fielded by a third party. For
  266.    example, if providers A, B and C share a PIM-SM inter-domain region,
  267.    then there may exist an RP that is mapped to C's multicast border
  268.    router. In this case, C is hosting a kind of "transit RP" for A and B
  269.    (A and B register to C to communicate between themselves, even if C
  270.    has no receivers for the group(s) served by the RP.
  271.  
  272.  
  273. 10. Traffic Concentration Problem
  274.  
  275.    Traffic can be "concentrated" on a shared tree. This can lead to
  276.    increased latency or packet loss. However, this is less of a problem
  277.    in the shared-media exchange point environment.
  278.  
  279.  
  280.  
  281.  
  282.  
  283.  
  284.  
  285.  
  286.  
  287.  
  288.  
  289.  
  290.  
  291. David Meyer                                             FORMFEED[Page 5]
  292.  
  293.  
  294.  
  295.  
  296.  
  297. Internet Draft draft-ietf-mboned-imrp-some-issues-01.txt      March 1997
  298.  
  299.  
  300. 11. Distant RP/Core Problem
  301.  
  302.    In the shared tree model, if the RP or Core is distant
  303.    (topologically), then joins will travel to the distant RP/Core, even
  304.    if the data is being delivered locally. Note that this problem will
  305.    be exacerbated if the RP/Core space is global; if a router is
  306.    registering to a RP/Core that is not in the local domain (say,
  307.    fielded by the site's direct provider), then the routing domain is
  308.    flat.
  309.  
  310.  
  311. 12. Multicast Internal Gateway Protocol (MIGP) Independence
  312.  
  313.    A shared tree, explicit join protocol inter-domain routing protocol
  314.    may require modification to a leaf domain's internal multicast
  315.    routing mechanism. The problem arises when a domain is running a
  316.    "flood and prune" protocol such as DVMRP or PIM-DM internally while
  317.    participating in a shared tree inter-domain protocol. In this case,
  318.    there can be areas of the (internal) topology that has receivers but
  319.    will not receive inter-domain traffic.
  320.  
  321.    [THALER96] describes interoperability rules to alleviate this
  322.    problem. Consider the case where a border router has interfaces in an
  323.    inter-domain shared tree region and a DVMRP region. The rules
  324.    covering this case state that either the DVMRP region must implement
  325.    Region Wide Reports [HDVMRP], or the DVMRP component of the border
  326.    router must be a wildcard receiver for externally reached sources,
  327.    while the shared tree component is a wildcard receiver for internally
  328.    reached sources. Alternatively, many current implementations use a
  329.    "receiver-is-sender" approach (which depends for the most part on
  330.    RTCP reports) to get around this problem.
  331.  
  332.  
  333. 13. Encapsulations
  334.  
  335.    Encapsulations should be minimized where ever possible. PIM-SM
  336.    encapsulates packets sent to the shared tree in PIM Register messages
  337.    (data can be delivered natively if the last hop router or the RP
  338.    switches to the shortest path tree). The design of an shared tree
  339.    inter-domain protocol should avoid the "O(N) Encapsulation" problem:
  340.    For paths that traverse N administrative domains, the number of
  341.    encapsulations can approach O(N).
  342.  
  343.  
  344.  
  345.  
  346.  
  347.  
  348.  
  349.  
  350.  
  351. David Meyer                                             FORMFEED[Page 6]
  352.  
  353.  
  354.  
  355.  
  356.  
  357. Internet Draft draft-ietf-mboned-imrp-some-issues-01.txt      March 1997
  358.  
  359.  
  360. 14. Policy Provisions
  361.  
  362.    Current inter-domain unicast routing protocols have a rich and well
  363.    developed policy model.  In contrast, multicast routing protocols
  364.    have little or no provision for implementing routing policy
  365.    (administrative scoping is one major exception).  A concrete example
  366.    of this need is the various problems with inadvertent injection of
  367.    unicast routing tables into the MBONE, coupled with our inability to
  368.    propagate the resultant large DVMRP routing tables, point out the
  369.    need for such policy oriented controls.
  370.  
  371.    A simple example illustrates why a successful inter-domain multicast
  372.    routing protocol will need to have a well developed policy model:
  373.    Consider three providers, A, B, and C, that have connections to a
  374.    shared-media exchange point.  Assume that connectivity is non-
  375.    transitive due to some policy (the common case, since bi-lateral
  376.    agreements are a very common form of peering agreement).  That is, A
  377.    and B are peers, B and C are peers, but A and C are not peers. Now,
  378.    consider a source S covered by a prefix P, where P belongs to a
  379.    customer of A (i.e., P is advertised by A).  Now, multicast packets
  380.    forwarded by A's border router will be correctly accepted by B's
  381.    border router, since it sees the RPF interface for P to be the
  382.    shared-media of the exchange. Likewise, C's border router will reject
  383.    the packets forwarded by A's border router because, by definition,
  384.    C's border router does not have A's routes through its interface on
  385.    the exchange (so packets sourced "inside" A fail the RPF check in C's
  386.    border router).
  387.  
  388.    In the example above, RPF is a powerful enough mechanism to inform C
  389.    that it should not accept packets sourced in P from A over the
  390.    exchange.  However, consider the common case in which P is multi-
  391.    homed to both A and B.  C now sees a route for P from B though its
  392.    interface on the exchange.  Without some form of multi-provider
  393.    cooperation and/or packet filtering (or a more sophisticated RPF
  394.    mechanism), C could accept multicast packets sourced by S from A
  395.    across the shared media exchange, even though A and C have not
  396.    entered into any agreement on the exchange. The situation described
  397.    above is caused by the overloading of the semantics of unicast route
  398.    (as described above), and the reliance on the RPF check as a policy
  399.    mechanism.
  400.  
  401.  
  402. 14.1. "Wrong" RPF Neighbor
  403.  
  404.    The example above illustrates a the problem that, in most current
  405.    implementations, the RPF check considers only the incoming interface,
  406.    and not the upstream neighbor (RPF neighbor).  This can result in
  407.    accepting packets from the "wrong" RPF neighbor (the neighbor is
  408.  
  409.  
  410.  
  411. David Meyer                                             FORMFEED[Page 7]
  412.  
  413.  
  414.  
  415.  
  416.  
  417. Internet Draft draft-ietf-mboned-imrp-some-issues-01.txt      March 1997
  418.  
  419.  
  420.    "wrong" since, while the RPF check succeeds and the packet is
  421.    forwarded, the unicast policy would not have forwarded the packet).
  422.  
  423.  
  424. 14.2. RPF as a Policy Mechanism
  425.  
  426.    In the example above, C is relying on its RPF check to protect it
  427.    from A's packets. However, not only is RPF too weak enough to cover
  428.    those cases in which a source prefix is multi-homed (as described in
  429.    the example above), it is essentially a packet filter and as such is
  430.    not an attractive policy mechanism.
  431.  
  432.  
  433. 15. Today's MBONE
  434.  
  435.    Another way to view the policy issues described above is to consider
  436.    the perspective of unicast reachability. Today's MBONE is comprised
  437.    of a single flat AS. Further, this AS running a simple distance
  438.    vector topology discovery protocol. This arrangement is unlikely to
  439.    scale gracefully or provide the same rich policy control that we find
  440.    in the unicast Internet. There are additional problems with a flat AS
  441.    model: the flat AS model fits neither the operational or
  442.    organizational models commonly found in Internet today.
  443.  
  444.  
  445. 16. Equal Cost Multipath
  446.  
  447.    A common way to incrementally scale available bandwidth is to provide
  448.    parallel equal cost paths. It would be an advantage if a multicast
  449.    routing protocol could support this. However, this would seem
  450.    difficult to achieve when using Reverse Path Forwarding, so it is
  451.    unclear whether this goal is achievable.
  452.  
  453.  
  454. 17. Conclusion
  455.  
  456.    Deployment of a general purpose IP multicast infrastructure for the
  457.    Internet has been slowed by various factors. One of the primary
  458.    reasons, however, is the lack of a true inter-domain Multicast
  459.    Routing Protocol.  Several proposals have been advanced to solve this
  460.    problem, including PIM-SM [PIM-SM], DVMRP [PIMMBR], and Hierarchical
  461.    DVMRP [HDVMRP]. However, the concerns outlined above have prevented
  462.    any of these protocols from being adopted as the standard inter-
  463.    domain multicast routing protocol. Finally, it is worth noting that
  464.    DVMRP, since it is the common denominator among router vendor
  465.    offerings, is currently the de-facto inter-domain routing protocol.
  466.  
  467.  
  468.  
  469.  
  470.  
  471. David Meyer                                             FORMFEED[Page 8]
  472.  
  473.  
  474.  
  475.  
  476.  
  477. Internet Draft draft-ietf-mboned-imrp-some-issues-01.txt      March 1997
  478.  
  479.  
  480. 18. Security Considerations
  481.  
  482.    Historically, routing protocols used within the Internet have lacked
  483.    strong authentication mechanisms [RFC1704]. In the late 1980s,
  484.    analysis revealed that there were a number of security problems in
  485.    Internet routing protocols then in use [BELLOVIN89].  During the
  486.    early 1990s it became clear that adversaries were selectively
  487.    attacking various intra-domain and inter-domain routing protocols
  488.    (e.g. via TCP session stealing of BGP sessions) [CERTCA9501,
  489.    RFC1636]. More recently, cryptographic authentication mechanisms have
  490.    been developed for RIPv2, OSPF, and the proprietary EIGRP routing
  491.    protocols.  BGP protection, in the form of a Keyed MD5 option for
  492.    TCP, has also become widely deployed.
  493.  
  494.    At present, most multicast routing protocols lack strong
  495.    cryptographic protection.  One possible approach to this is to
  496.    incorporate a strong cryptographic protection mechanism (e.g. Keyed
  497.    HMAC MD5 [RFC2104]) within the routing protocol itself.  Alternately,
  498.    the routing protocol could be designed and specified to use the IP
  499.    Authentication Header (AH) [RFC1825, RFC1826, RFC2085] to provide
  500.    cryptographic authentication.
  501.  
  502.    Because the intent of any routing protocol is to propagate routing
  503.    information to other parties, confidentiality is not generally
  504.    required in routing protocols.  In those few cases where local
  505.    security policy might require confidentiality, the use of the IP
  506.    Encapsulating Security Payload (ESP) [RFC1825, RFC1827] is
  507.    recommended.
  508.  
  509.    Scalable dynamic multicast key management is an active research area
  510.    at this time. Candidate technologies for scalable dynamic multicast
  511.    key management include CBT-based key management [RFC1949] and the
  512.    Group Key Management Protocol (GKMP) [GKMPID].  The IETF IP Security
  513.    Working Group is actively working on GKMP extensions to the
  514.    standards-track ISAKMP key management protocol being developed in the
  515.    same working group.
  516.  
  517.  
  518.  
  519.  
  520.  
  521.  
  522.  
  523.  
  524.  
  525.  
  526.  
  527.  
  528.  
  529.  
  530.  
  531. David Meyer                                             FORMFEED[Page 9]
  532.  
  533.  
  534.  
  535.  
  536.  
  537. Internet Draft draft-ietf-mboned-imrp-some-issues-01.txt      March 1997
  538.  
  539.  
  540. 19. References
  541.  
  542.    [BELLOVIN89] S. Bellovin, "Security Problems in the TCP/IP
  543.                 Protocol Suite", ACM Computer Communications Review,
  544.                 Volume 19, Number 2, pp. 32-48, April 1989.
  545.  
  546.    [CBT]        A. Ballardie, et. al., "Core Based Trees (CBT)
  547.                 Multicast -- Protocol Specification --",
  548.                 draft-ietf-idmr-cbt-spec-06.txt, September, 1996.
  549.  
  550.    [CERTCA9501] CERT, "IP Spoofing Attacks and Hijacked Terminal
  551.                 Connections", ftp://ftp.cert.org/cert_advisories/,
  552.                 January 1995.
  553.  
  554.    [DVMRP]      T. Pusateri, "Distance Vector Multicast Routing
  555.                 Protocol", draft-ietf-idmr-dvmrp-v3-03, September,
  556.                 1996.
  557.  
  558.    [GKMPID]     H. Harney, "Group Key Management Protocol (GKMP)",
  559.                 draft-harney-gkmp-arch-01.txt &&
  560.                 draft-harney-gkmp-spec-01.txt, August 1996,
  561.                 Informational RFC publication is pending.
  562.  
  563.    [HDVMRP]     A. Thyagarajan and Steve Deering, "Hierarchical
  564.                 Distance-Vector Multicast Routing for the MBone", In
  565.                 Proceedings of the ACM SIGCOMM, pages 60-66,
  566.                 October, 1995.
  567.  
  568.    [LABOV97]    C. Labovitz, et. al., "Internet Routing
  569.                 Instability", Submitted to SIGCOMM97.
  570.  
  571.    [PIMARCH]    D. Estrin, et. al., "Protocol Independent Multicast
  572.                 Sparse Mode (PIM-SM): Motivation and Architecture",
  573.                 draft-ietf-idmr-pim-arch-04.ps , October, 1996.
  574.  
  575.    [PIM-DM]     D. Estrin, et. al., "Protocol Independent Multicast
  576.                 Dense Mode (PIM-DM): Protocol Specification",
  577.                 draft-ietf-idmr-PIM-DM-spec-04.ps, September, 1996.
  578.  
  579.    [PIMMBR]     D. Estrin, et. al., "PIM Multicast Border Router
  580.                 (PMBR) specification for connecting PIM-SM domains
  581.                 to a DVMRP Backbone", draft-ietf-idmr-PIMBR-spec-01.ps,
  582.                 September, 1996.
  583.  
  584.    [PIM-SM]     D. Estrin, et. al., "Protocol Independent Multicast
  585.                 Sparse Mode (PIM-SM): Protocol Specification",
  586.                 draft-ietf-idmr-PIM-SM-spec-09.ps, October, 1996.
  587.  
  588.  
  589.  
  590.  
  591. David Meyer                                            FORMFEED[Page 10]
  592.  
  593.  
  594.  
  595.  
  596.  
  597. Internet Draft draft-ietf-mboned-imrp-some-issues-01.txt      March 1997
  598.  
  599.  
  600.    [THALER96]   D. Thaler, "Interoperability Rules for Multicast
  601.                 Routing Protocols", draft-thaler-interop-00.ps,
  602.                 November, 1996.
  603.  
  604.    [ESTRIN97]   D. Estrin, et. al., "A Dynamic Bootstrap Mechanism
  605.                 for Rendezvous-based Multicast Routing", USC/ISI
  606.                 Technical Report, 1997.
  607.  
  608.    [RFC1636]    Braden, R., Clark, D., Crocker, S., and C. Huitema,
  609.                 "Report of IAB Workshop on Security in the Internet
  610.                 Architecture", RFC1636, June 1994.
  611.  
  612.    [RFC1704]    N. Haller and R. Atkinson, "On Internet
  613.                 Authentication", RFC1704, October 1994.
  614.  
  615.    [RFC1825]    Atkinson, R., "IP Security Architecture", August 1995.
  616.  
  617.    [RFC1826]    Atkinson, R., "IP Authentication Header", August 1995.
  618.  
  619.    [RFC1827]    Atkinson, R., "IP Encapsulating Security Payload",
  620.                 August 1995.
  621.  
  622.    [RFC1949]    A. Ballardie, "Scalable Multicast Key Distribution",
  623.                 RFC1949, June 1996.
  624.  
  625.    [RFC2085]    M. Oehler & R. Glenn, "HMAC-MD5 IP Authentication
  626.                 with Replay Prevention", February 1997.
  627.  
  628.    [RFC2104]    H. Krawczyk, M. Bellare, & R. Canetti, "HMAC: Keyed
  629.                 Hashing for Message Authentication", RFC2104,
  630.                 February 1997.
  631.  
  632.    [VILLAM95]   C. Villamizar, Ravi Chandra, and Ramesh Govindan,
  633.                 "Controlling BGP/IDRP Routing Overhead",
  634.                 draft-ietf-idr-rout-dampen-00.ps, July, 1995.
  635.  
  636.  
  637.  
  638.  
  639.  
  640.  
  641.  
  642.  
  643.  
  644.  
  645.  
  646.  
  647.  
  648.  
  649.  
  650.  
  651. David Meyer                                            FORMFEED[Page 11]
  652.  
  653.  
  654.  
  655.  
  656.  
  657. Internet Draft draft-ietf-mboned-imrp-some-issues-01.txt      March 1997
  658.  
  659.  
  660. 20. Acknowledgments
  661.  
  662.    Dino Farinacci, Dave Thaler, and Yakov Rekhter provided several
  663.    insightful comments on earlier versions of this document. Ran
  664.    Atkinson contributed most of the security ideas contained in this
  665.    document.
  666.  
  667.  
  668.  
  669. 21. Author Information
  670.  
  671.  
  672.    David Meyer
  673.    University of Oregon
  674.    1225 Kincaid St.
  675.    Eugene, OR 97403
  676.    Phone: (541) 346-1747
  677.    e-mail: meyer@antc.uoregon.edu
  678.  
  679.  
  680.  
  681.  
  682.  
  683.  
  684.  
  685.  
  686.  
  687.  
  688.  
  689.  
  690.  
  691.  
  692.  
  693.  
  694.  
  695.  
  696.  
  697.  
  698.  
  699.  
  700.  
  701.  
  702.  
  703.  
  704.  
  705.  
  706.  
  707.  
  708.  
  709.  
  710.  
  711. David Meyer                                            FORMFEED[Page 12]
  712.  
  713.  
  714.