home *** CD-ROM | disk | FTP | other *** search
/ Internet Info 1997 December / Internet_Info_CD-ROM_Walnut_Creek_December_1997.iso / drafts / draft_ietf_j_p / draft-ietf-mboned-imrp-some-issues-02.txt < prev    next >
Text File  |  1997-06-10  |  26KB  |  716 lines

  1.  
  2. MBONE Deployment Working Group                               David Meyer
  3. Internet Draft                                      University of Oregon
  4.  
  5. Expiration Date:                                 December 1997 June 1997
  6.  
  7.  
  8.       Some Issues for an Inter-domain Multicast Routing Protocol
  9.  
  10.  
  11.                draft-ietf-mboned-imrp-some-issues-02.txt
  12.  
  13.  
  14. 1. Status of this Memo
  15.  
  16.    This document is an Internet-Draft.  Internet-Drafts are working
  17.    documents of the Internet Engineering Task Force (IETF), its areas,
  18.    and its working groups.  Note that other groups may also distribute
  19.    working documents as Internet-Drafts.
  20.  
  21.    Internet-Drafts are draft documents valid for a maximum of six months
  22.    and may be updated, replaced, or obsoleted by other documents at any
  23.    time.  It is inappropriate to use Internet-Drafts as reference
  24.    material or to cite them other than as ``work in progress.''
  25.  
  26.    To learn the current status of any Internet-Draft, please check the
  27.    ``1id-abstracts.txt'' listing contained in the Internet-Drafts Shadow
  28.    Directories on ftp.is.co.za (Africa), nic.nordu.net (Europe),
  29.    munnari.oz.au (Pacific Rim), ds.internic.net (US East Coast), or
  30.    ftp.isi.edu (US West Coast).
  31.  
  32.  
  33. 2. Introduction
  34.  
  35.    The IETF's Inter-Domain Multicast Routing (IDMR) working group has
  36.    produced several multicast routing protocols, including Core Based
  37.    Trees [CBT] and Protocol Independent Multicasting [PIMARCH]. In
  38.    addition, the IDMR WG has formalized the specification of the
  39.    Distance Vector Multicast Routing Protocol [DVMRP]. Various
  40.    specifications for protocol inter-operation have also been produced
  41.    (see, for example, [THALER96] and [PIMMBR]). However, none of these
  42.    protocols seems ideally suited to the inter-domain routing case; that
  43.    is, while these protocols are appropriate for the intra-domain
  44.    routing environment, they break down in various ways when applied in
  45.    to the multi-provider inter-domain case.
  46.  
  47.    This document considers some of the scaling, stability and policy
  48.    issues that are of primary importance in a inter-domain, multi-
  49.    provider multicast environment.
  50.  
  51.  
  52.  
  53. David Meyer                                             FORMFEED[Page 1]
  54.  
  55.  
  56.  
  57.  
  58.  
  59. Internet Draft draft-ietf-mboned-imrp-some-issues-02.txt       June 1997
  60.  
  61.  
  62. 3. Forwarding State Requirements
  63.  
  64.    Any scalable protocol will have to minimize forwarding state
  65.    requirements. In the case of dense mode protocols [DVMRP,PIM-DM],
  66.    routers may carry forwarding or prune state for every (S,G) pair in
  67.    the Internet. This is true even for routers that may not be on any
  68.    delivery tree. It seems likely that as multicast deployment scales to
  69.    the size of the Internet, maintenance of (S,G) state will become
  70.    intractable.
  71.  
  72.    Shared tree protocols, on the other hand, have the advantage of
  73.    maintaining a single (*,G) entry for a group's receivers (thus
  74.    relaxing the requirement of maintaining (S,G) for the entire
  75.    Internet). However, this is not without its own disadvantages; see
  76.    the section on "Third-party Resource Dependencies" below.
  77.  
  78.  
  79. 4. Forwarding State Distribution
  80.  
  81.    The objective of a multicast forwarding state distribution mechanism
  82.    is to ensure that multicast traffic is efficiently distributed to
  83.    those parts of the topology where there are receivers. Dense and
  84.    sparse mode protocols will accept differing overheads based on design
  85.    tradeoffs. In the dense mode case, the data-driven nature state
  86.    distribution has disadvantage that data is periodically distributed
  87.    to branches of the distribution tree which don't have receivers
  88.    ("Broadcast and Prune" behavior). It seems unlikely that this
  89.    mechanism will be scalable to Internet-wide case.
  90.  
  91.    On the other hand, sparse mode protocols use receiver-initiated,
  92.    explicit joins to establish a forwarding path along a shared
  93.    distribution tree. While the on-demand nature of sparse mode
  94.    protocols have favorable properties with respect to distribution of
  95.    forwarding state, it also has the possible disadvantage of creating
  96.    dependencies on shared resources (again, see the section on "Third-
  97.    Party Resource Dependencies" below).
  98.  
  99.  
  100.  
  101.  
  102.  
  103.  
  104.  
  105.  
  106.  
  107.  
  108.  
  109.  
  110.  
  111.  
  112.  
  113. David Meyer                                             FORMFEED[Page 2]
  114.  
  115.  
  116.  
  117.  
  118.  
  119. Internet Draft draft-ietf-mboned-imrp-some-issues-02.txt       June 1997
  120.  
  121.  
  122. 5. Forwarding State Maintenance
  123.  
  124.    The many current multicast protocols attempt to accurately and
  125.    rapidly maintain distribution trees that are as close to the tree of
  126.    shortest-path routes (as defined by unicast) as possible. This means
  127.    that the shape of a distribution tree can be rapidly changing. In
  128.    addition, since distribution trees can be global, they can be subject
  129.    to high frequency control traffic.
  130.  
  131.    In contrast, the focus in the inter-domain unicast routing
  132.    environment is on minimizing routing traffic (see, for example,
  133.    [VILLAM95]), and controlling stability [LABOV97]. The implication is
  134.    that protocol overhead and stability must be controlled if we hope
  135.    multicast to scale to Internet sizes. Thus it seems likely that
  136.    Inter-domain multicast routing protocols will have to do less
  137.    forwarding state maintenance, and hence be less aggressive in
  138.    reshaping distribution trees. Note that this reshaping is related to
  139.    what has been termed "routing flux" (again, see [LABOV97]), since the
  140.    routing traffic does not directly affect path selection. Rather, the
  141.    primary effect is to require significant processing resources in a
  142.    border router. Finally, note that unlike the unicast case, we do not
  143.    have good data characterizing this effect for multicast routers.
  144.  
  145.  
  146. 5.1. Data Driven Forwarding State Creation
  147.  
  148.    Another issue with broadcast and prune protocols is that forwarding
  149.    state is created in a data-driven manner.
  150.  
  151.  
  152. 5.2. Bursty Source Problem
  153.  
  154.    When a source's inter-burst period is longer than the router state
  155.    timeout period, some or all of a source's packets can be lost. This
  156.    effect has been termed the "Bursty Source Problem" [ESTRIN97]. The
  157.    current set of multicast routing protocols attempt, where possible,
  158.    to avoid this problem (i.e., maximize response to bursty sources).
  159.  
  160.  
  161.  
  162.  
  163.  
  164.  
  165.  
  166.  
  167.  
  168.  
  169.  
  170.  
  171.  
  172.  
  173. David Meyer                                             FORMFEED[Page 3]
  174.  
  175.  
  176.  
  177.  
  178.  
  179. Internet Draft draft-ietf-mboned-imrp-some-issues-02.txt       June 1997
  180.  
  181.  
  182. 6. Mixed Control
  183.  
  184.    Mixing control of topology discovery and distribution tree
  185.    construction can lead to efficiencies but also imposes various
  186.    constraints on topology discovery mechanisms. For example, DVMRP
  187.    [DVMRP] uses topology discovery facilities ("split horizon with
  188.    poison reverse")  to eliminate duplicate packets on a LAN, and to
  189.    detect non-leaf networks (an upstream router uses this information
  190.    when pruning downstream interfaces).
  191.  
  192.    On the other hand, PIM [PIM-DM] does not use any topology discovery
  193.    algorithm features when building delivery trees. However, this
  194.    independence is not without cost: PIM-DM accepts some duplicates on
  195.    multi-access LANs as a tradeoff for reduced protocol complexity.
  196.  
  197.  
  198. 7. Neighbor Model
  199.  
  200.    The current inter-domain unicast routing model has some key
  201.    differences with proposed inter-domain multicast routing models with
  202.    respect to neighbor (peer) discovery. In particular, the current set
  203.    of multicast protocols depend heavily on dynamic neighbor discovery.
  204.    This is analogous to the situation with intra-domain unicast routing,
  205.    but is unlike current inter-domain unicast routing, where neighbors
  206.    are typically statically configured.
  207.  
  208.    The static neighbor configuration model has several benefits for
  209.    inter-domain routing. First, neighbors are predefined, which is a
  210.    policy requirement in most cases. In addition, the set of peers in
  211.    the inter-domain unicast routing system defines the set of possible
  212.    inter-domain topologies (with the current active topology represented
  213.    by the collection of AS paths).
  214.  
  215.    Another important difference relates to how inter-domain regions are
  216.    modeled. For purposes of this document, consider an inter-domain
  217.    region defined to be a part of an arbitrary topology in which a
  218.    higher level (inter-domain) routing protocol is used to calculate
  219.    paths between regions. In addition, each pair of adjacent regions is
  220.    connected by one or more multicast border routers. Current IDMR
  221.    proposals (e.g., [HDVMRP], [THALER96]) model an inter-domain region
  222.    as a routing domain. That is, border routers internetwork between one
  223.    or more intra-domain regions and an inter-domain region (again,
  224.    possibly more than one). In this model, inter-networking occurs
  225.    "inside" router. However, the inter-provider unicast routing model in
  226.    use today is quite different.  In particular, the  "peering" between
  227.    two providers occurs in neither of the provider's routing domains,
  228.    nor does it occur in some shared "inter-domain" routing domain. The
  229.    separation provides the administrative and policy control that is
  230.  
  231.  
  232.  
  233. David Meyer                                             FORMFEED[Page 4]
  234.  
  235.  
  236.  
  237.  
  238.  
  239. Internet Draft draft-ietf-mboned-imrp-some-issues-02.txt       June 1997
  240.  
  241.  
  242.    required in today's Internet.
  243.  
  244.  
  245.  
  246. 8. Unicast Topology Dependency
  247.  
  248.    Ideally, unicast and multicast topologies are congruent in the
  249.    Internet. However, since it is frequently difficult to field new
  250.    facilities (such as IP multicast) in the "core" the Internet
  251.    infrastructure, there will continue to be many cases in which unicast
  252.    and multicast topologies are not congruent (either because a region
  253.    is not multicast capable at all, or because the region is not
  254.    natively forwarding multicast traffic). Thus, it is unlikely that the
  255.    entire IPv4 Internet will be able to carry native multicast traffic
  256.    in the foreseeable future. In addition, various policy requirements
  257.    will in certain cases cause to topologies to further diverge. The
  258.    implication is that a successful IDMR will need a topology discover
  259.    mechanism, or have other mechanisms for dealing with those cases in
  260.    which unicast and multicast topologies are not congruent.
  261.  
  262.  
  263. 8.1. Multicast Policies and Unicast Routes
  264.  
  265.    Multicast and unicast packet forwarding algorithms assign different
  266.    semantics to a unicast route. In particular, if a router B accepts a
  267.    route from router A covering prefix P, then B will to forward packets
  268.    "to" those destinations covered by P, using A as the next hop when
  269.    forwarding unicast packets. However, in the multicast case, the same
  270.    route means B will accept packets "from" sources covered by P (though
  271.    not necessarily from A, but through the same interface as is used to
  272.    reach A). It is this difference in unicast route semantics that makes
  273.    formulation of precise multicast policy difficult.
  274.  
  275.  
  276.  
  277. 9. Third-Party Resource Dependencies
  278.  
  279.    Shared tree protocols require one or more globally shared Rendezvous
  280.    Points (RPs) [PIM-SM] or Cores [CBT]. The RP or Core effectively
  281.    serves as the root of a group specific shared tree. Data is sent to
  282.    the RP/Core for delivery on the shared tree. This means that some
  283.    groups may have an RP (or core) that is fielded by a third party. For
  284.    example, if providers A, B and C share a PIM-SM inter-domain region,
  285.    then there may exist an RP that is mapped to C's multicast border
  286.    router. In this case, C is hosting a kind of "transit RP" for A and B
  287.    (A and B register to C to communicate between themselves, even if C
  288.    has no receivers for the group(s) served by the RP.
  289.  
  290.  
  291.  
  292.  
  293. David Meyer                                             FORMFEED[Page 5]
  294.  
  295.  
  296.  
  297.  
  298.  
  299. Internet Draft draft-ietf-mboned-imrp-some-issues-02.txt       June 1997
  300.  
  301.  
  302. 10. Traffic Concentration Problem
  303.  
  304.    Traffic can be "concentrated" on a shared tree. This can lead to
  305.    increased latency or packet loss. However, this is less of a problem
  306.    in the shared-media exchange point environment.
  307.  
  308.  
  309. 11. Distant RP/Core Problem
  310.  
  311.    In the shared tree model, if the RP or Core is distant
  312.    (topologically), then joins will travel to the distant RP/Core, even
  313.    if the data is being delivered locally. Note that this problem will
  314.    be exacerbated if the RP/Core space is global; if a router is
  315.    registering to a RP/Core that is not in the local domain (say,
  316.    fielded by the site's direct provider), then the routing domain is
  317.    flat.
  318.  
  319.  
  320. 12. Multicast Internal Gateway Protocol (MIGP) Independence
  321.  
  322.    A shared tree, explicit join protocol inter-domain routing protocol
  323.    may require modification to a leaf domain's internal multicast
  324.    routing mechanism. The problem arises when a domain is running a
  325.    "broadcast and prune" protocol such as DVMRP or PIM-DM internally
  326.    while participating in a shared tree inter-domain protocol. In this
  327.    case, there can be areas of the (internal) topology that has
  328.    receivers but will not receive inter-domain traffic.
  329.  
  330.    [THALER96] describes interoperability rules to alleviate this
  331.    problem. Consider the case where a border router has interfaces in an
  332.    inter-domain shared tree region and a DVMRP region. The rules
  333.    covering this case state that either the DVMRP region must implement
  334.    Region Wide Reports [HDVMRP], or the DVMRP component of the border
  335.    router must be a wildcard receiver for externally reached sources,
  336.    while the shared tree component is a wildcard receiver for internally
  337.    reached sources. Alternatively, many current implementations use a
  338.    "receiver-is-sender" approach (which depends for the most part on
  339.    RTCP reports) to get around this problem.
  340.  
  341.  
  342.  
  343.  
  344.  
  345.  
  346.  
  347.  
  348.  
  349.  
  350.  
  351.  
  352.  
  353. David Meyer                                             FORMFEED[Page 6]
  354.  
  355.  
  356.  
  357.  
  358.  
  359. Internet Draft draft-ietf-mboned-imrp-some-issues-02.txt       June 1997
  360.  
  361.  
  362. 13. Encapsulations
  363.  
  364.    Encapsulations should be minimized where ever possible. PIM-SM
  365.    encapsulates packets sent to the shared tree in PIM Register messages
  366.    (data can be delivered natively if the last hop router or the RP
  367.    switches to the shortest path tree). The design of an shared tree
  368.    inter-domain protocol should avoid the "O(N) Encapsulation" problem:
  369.    For paths that traverse N administrative domains, the number of
  370.    encapsulations can approach O(N).
  371.  
  372.  
  373. 14. Policy Provisions
  374.  
  375.    Current inter-domain unicast routing protocols have a rich and well
  376.    developed policy model.  In contrast, multicast routing protocols
  377.    have little or no provision for implementing routing policy
  378.    (administrative scoping is one major exception).  A concrete example
  379.    of this need is the various problems with inadvertent injection of
  380.    unicast routing tables into the MBONE, coupled with our inability to
  381.    propagate the resultant large DVMRP routing tables, point out the
  382.    need for such policy oriented controls.
  383.  
  384.    A simple example illustrates why a successful inter-domain multicast
  385.    routing protocol will need to have a well developed policy model:
  386.    Consider three providers, A, B, and C, that have connections to a
  387.    shared-media exchange point.  Assume that connectivity is non-
  388.    transitive due to some policy (the common case, since bi-lateral
  389.    agreements are a very common form of peering agreement).  That is, A
  390.    and B are peers, B and C are peers, but A and C are not peers. Now,
  391.    consider a source S covered by a prefix P, where P belongs to a
  392.    customer of A (i.e., P is advertised by A).  Now, multicast packets
  393.    forwarded by A's border router will be correctly accepted by B's
  394.    border router, since it sees the RPF interface for P to be the
  395.    shared-media of the exchange. Likewise, C's border router will reject
  396.    the packets forwarded by A's border router because, by definition,
  397.    C's border router does not have A's routes through its interface on
  398.    the exchange (so packets sourced "inside" A fail the RPF check in C's
  399.    border router).
  400.  
  401.    In the example above, RPF is a powerful enough mechanism to inform C
  402.    that it should not accept packets sourced in P from A over the
  403.    exchange.  However, consider the common case in which P is multi-
  404.    homed to both A and B.  C now sees a route for P from B though its
  405.    interface on the exchange.  Without some form of multi-provider
  406.    cooperation and/or packet filtering (or a more sophisticated RPF
  407.    mechanism), C could accept multicast packets sourced by S from A
  408.    across the shared media exchange, even though A and C have not
  409.    entered into any agreement on the exchange. The situation described
  410.  
  411.  
  412.  
  413. David Meyer                                             FORMFEED[Page 7]
  414.  
  415.  
  416.  
  417.  
  418.  
  419. Internet Draft draft-ietf-mboned-imrp-some-issues-02.txt       June 1997
  420.  
  421.  
  422.    above is caused by the overloading of the semantics of unicast route
  423.    (as described above), and the reliance on the RPF check as a policy
  424.    mechanism.
  425.  
  426.  
  427. 14.1. "Wrong" RPF Neighbor
  428.  
  429.    The example above illustrates a the problem that, in most current
  430.    implementations, the RPF check considers only the incoming interface,
  431.    and not the upstream neighbor (RPF neighbor).  This can result in
  432.    accepting packets from the "wrong" RPF neighbor (the neighbor is
  433.    "wrong" since, while the RPF check succeeds and the packet is
  434.    forwarded, the unicast policy would not have forwarded the packet).
  435.  
  436.  
  437. 14.2. RPF as a Policy Mechanism
  438.  
  439.    In the example above, C is relying on its RPF check to protect it
  440.    from A's packets. However, not only is RPF too weak enough to cover
  441.    those cases in which a source prefix is multi-homed (as described in
  442.    the example above), it is essentially a packet filter and as such is
  443.    not an attractive policy mechanism.
  444.  
  445.  
  446. 15. Today's MBONE
  447.  
  448.    Another way to view the policy issues described above is to consider
  449.    the perspective of unicast reachability. Today's MBONE is comprised
  450.    of a single flat AS. Further, this AS running a simple distance
  451.    vector topology discovery protocol. This arrangement is unlikely to
  452.    scale gracefully or provide the same rich policy control that we find
  453.    in the unicast Internet. There are additional problems with a flat AS
  454.    model: the flat AS model fits neither the operational or
  455.    organizational models commonly found in Internet today.
  456.  
  457.  
  458. 16. Equal Cost Multipath
  459.  
  460.    A common way to incrementally scale available bandwidth is to provide
  461.    parallel equal cost paths. It would be an advantage if a multicast
  462.    routing protocol could support this. However, this would seem
  463.    difficult to achieve when using Reverse Path Forwarding, so it is
  464.    unclear whether this goal is achievable.
  465.  
  466.  
  467.  
  468.  
  469.  
  470.  
  471.  
  472.  
  473. David Meyer                                             FORMFEED[Page 8]
  474.  
  475.  
  476.  
  477.  
  478.  
  479. Internet Draft draft-ietf-mboned-imrp-some-issues-02.txt       June 1997
  480.  
  481.  
  482. 17. Conclusion
  483.  
  484.    Deployment of a general purpose IP multicast infrastructure for the
  485.    Internet has been slowed by various factors. One of the primary
  486.    reasons, however, is the lack of a true inter-domain Multicast
  487.    Routing Protocol.  Several proposals have been advanced to solve this
  488.    problem, including PIM-SM [PIM-SM], DVMRP [PIMMBR], and Hierarchical
  489.    DVMRP [HDVMRP]. However, the concerns outlined above have prevented
  490.    any of these protocols from being adopted as the standard inter-
  491.    domain multicast routing protocol. Finally, it is worth noting that
  492.    DVMRP, since it is the common denominator among router vendor
  493.    offerings, is currently the de-facto inter-domain routing protocol.
  494.  
  495.  
  496. 18. Security Considerations
  497.  
  498.    Historically, routing protocols used within the Internet have lacked
  499.    strong authentication mechanisms [RFC1704]. In the late 1980s,
  500.    analysis revealed that there were a number of security problems in
  501.    Internet routing protocols then in use [BELLOVIN89].  During the
  502.    early 1990s it became clear that adversaries were selectively
  503.    attacking various intra-domain and inter-domain routing protocols
  504.    (e.g. via TCP session stealing of BGP sessions) [CERTCA9501,
  505.    RFC1636]. More recently, cryptographic authentication mechanisms have
  506.    been developed for RIPv2, OSPF, and the proprietary EIGRP routing
  507.    protocols.  BGP protection, in the form of a Keyed MD5 option for
  508.    TCP, has also become widely deployed.
  509.  
  510.    At present, most multicast routing protocols lack strong
  511.    cryptographic protection.  One possible approach to this is to
  512.    incorporate a strong cryptographic protection mechanism (e.g. Keyed
  513.    HMAC MD5 [RFC2104]) within the routing protocol itself.  Alternately,
  514.    the routing protocol could be designed and specified to use the IP
  515.    Authentication Header (AH) [RFC1825, RFC1826, RFC2085] to provide
  516.    cryptographic authentication.
  517.  
  518.    Because the intent of any routing protocol is to propagate routing
  519.    information to other parties, confidentiality is not generally
  520.    required in routing protocols.  In those few cases where local
  521.    security policy might require confidentiality, the use of the IP
  522.    Encapsulating Security Payload (ESP) [RFC1825, RFC1827] is
  523.    recommended.
  524.  
  525.    Scalable dynamic multicast key management is an active research area
  526.    at this time. Candidate technologies for scalable dynamic multicast
  527.    key management include CBT-based key management [RFC1949] and the
  528.    Group Key Management Protocol (GKMP) [GKMPID].  The IETF IP Security
  529.    Working Group is actively working on GKMP extensions to the
  530.  
  531.  
  532.  
  533. David Meyer                                             FORMFEED[Page 9]
  534.  
  535.  
  536.  
  537.  
  538.  
  539. Internet Draft draft-ietf-mboned-imrp-some-issues-02.txt       June 1997
  540.  
  541.  
  542.    standards-track ISAKMP key management protocol being developed in the
  543.    same working group.
  544.  
  545.  
  546.  
  547. 19. References
  548.  
  549.    [BELLOVIN89] S. Bellovin, "Security Problems in the TCP/IP
  550.                 Protocol Suite", ACM Computer Communications Review,
  551.                 Volume 19, Number 2, pp. 32-48, April 1989.
  552.  
  553.    [CBT]        A. Ballardie, et. al., "Core Based Trees (CBT)
  554.                 Multicast -- Protocol Specification --",
  555.                 draft-ietf-idmr-cbt-spec-06.txt, September, 1996.
  556.  
  557.    [CERTCA9501] CERT, "IP Spoofing Attacks and Hijacked Terminal
  558.                 Connections", ftp://ftp.cert.org/cert_advisories/,
  559.                 January 1995.
  560.  
  561.    [DVMRP]      T. Pusateri, "Distance Vector Multicast Routing
  562.                 Protocol", draft-ietf-idmr-dvmrp-v3-03, September,
  563.                 1996.
  564.  
  565.    [GKMPID]     H. Harney, "Group Key Management Protocol (GKMP)",
  566.                 draft-harney-gkmp-arch-01.txt &&
  567.                 draft-harney-gkmp-spec-01.txt, August 1996,
  568.                 Informational RFC publication is pending.
  569.  
  570.    [HDVMRP]     A. Thyagarajan and Steve Deering, "Hierarchical
  571.                 Distance-Vector Multicast Routing for the MBone", In
  572.                 Proceedings of the ACM SIGCOMM, pages 60-66,
  573.                 October, 1995.
  574.  
  575.    [LABOV97]    C. Labovitz, et. al., "Internet Routing
  576.                 Instability", Submitted to SIGCOMM97.
  577.  
  578.    [PIMARCH]    D. Estrin, et. al., "Protocol Independent Multicast
  579.                 Sparse Mode (PIM-SM): Motivation and Architecture",
  580.                 draft-ietf-idmr-pim-arch-04.ps , October, 1996.
  581.  
  582.    [PIM-DM]     D. Estrin, et. al., "Protocol Independent Multicast
  583.                 Dense Mode (PIM-DM): Protocol Specification",
  584.                 draft-ietf-idmr-PIM-DM-spec-04.ps, September, 1996.
  585.  
  586.    [PIMMBR]     D. Estrin, et. al., "PIM Multicast Border Router
  587.                 (PMBR) specification for connecting PIM-SM domains
  588.                 to a DVMRP Backbone", draft-ietf-idmr-PIMBR-spec-01.ps,
  589.                 September, 1996.
  590.  
  591.  
  592.  
  593. David Meyer                                            FORMFEED[Page 10]
  594.  
  595.  
  596.  
  597.  
  598.  
  599. Internet Draft draft-ietf-mboned-imrp-some-issues-02.txt       June 1997
  600.  
  601.  
  602.    [PIM-SM]     D. Estrin, et. al., "Protocol Independent Multicast
  603.                 Sparse Mode (PIM-SM): Protocol Specification",
  604.                 draft-ietf-idmr-PIM-SM-spec-09.ps, October, 1996.
  605.  
  606.    [THALER96]   D. Thaler, "Interoperability Rules for Multicast
  607.                 Routing Protocols", draft-thaler-interop-00.ps,
  608.                 November, 1996.
  609.  
  610.    [ESTRIN97]   D. Estrin, et. al., "A Dynamic Bootstrap Mechanism
  611.                 for Rendezvous-based Multicast Routing", USC/ISI
  612.                 Technical Report, 1997.
  613.  
  614.    [RFC1636]    Braden, R., Clark, D., Crocker, S., and C. Huitema,
  615.                 "Report of IAB Workshop on Security in the Internet
  616.                 Architecture", RFC1636, June 1994.
  617.  
  618.    [RFC1704]    N. Haller and R. Atkinson, "On Internet
  619.                 Authentication", RFC1704, October 1994.
  620.  
  621.    [RFC1825]    Atkinson, R., "IP Security Architecture", August 1995.
  622.  
  623.    [RFC1826]    Atkinson, R., "IP Authentication Header", August 1995.
  624.  
  625.    [RFC1827]    Atkinson, R., "IP Encapsulating Security Payload",
  626.                 August 1995.
  627.  
  628.    [RFC1949]    A. Ballardie, "Scalable Multicast Key Distribution",
  629.                 RFC1949, June 1996.
  630.  
  631.    [RFC2085]    M. Oehler & R. Glenn, "HMAC-MD5 IP Authentication
  632.                 with Replay Prevention", February 1997.
  633.  
  634.    [RFC2104]    H. Krawczyk, M. Bellare, & R. Canetti, "HMAC: Keyed
  635.                 Hashing for Message Authentication", RFC2104,
  636.                 February 1997.
  637.  
  638.    [VILLAM95]   C. Villamizar, Ravi Chandra, and Ramesh Govindan,
  639.                 "Controlling BGP/IDRP Routing Overhead",
  640.                 draft-ietf-idr-rout-dampen-00.ps, July, 1995.
  641.  
  642.  
  643.  
  644.  
  645.  
  646.  
  647.  
  648.  
  649.  
  650.  
  651.  
  652.  
  653. David Meyer                                            FORMFEED[Page 11]
  654.  
  655.  
  656.  
  657.  
  658.  
  659. Internet Draft draft-ietf-mboned-imrp-some-issues-02.txt       June 1997
  660.  
  661.  
  662. 20. Acknowledgments
  663.  
  664.    Dino Farinacci, Dave Thaler, and Yakov Rekhter provided several
  665.    insightful comments on earlier versions of this document. Ran
  666.    Atkinson contributed most of the security ideas contained in this
  667.    document.
  668.  
  669.  
  670.  
  671. 21. Author Information
  672.  
  673.  
  674.    David Meyer
  675.    University of Oregon
  676.    1225 Kincaid St.
  677.    Eugene, OR 97403
  678.    Phone: (541) 346-1747
  679.    e-mail: meyer@antc.uoregon.edu
  680.  
  681.  
  682.  
  683.  
  684.  
  685.  
  686.  
  687.  
  688.  
  689.  
  690.  
  691.  
  692.  
  693.  
  694.  
  695.  
  696.  
  697.  
  698.  
  699.  
  700.  
  701.  
  702.  
  703.  
  704.  
  705.  
  706.  
  707.  
  708.  
  709.  
  710.  
  711.  
  712.  
  713. David Meyer                                            FORMFEED[Page 12]
  714.  
  715.  
  716.