home *** CD-ROM | disk | FTP | other *** search
/ Internet Info 1997 December / Internet_Info_CD-ROM_Walnut_Creek_December_1997.iso / drafts / draft_ietf_j_p / draft-ietf-mpls-arch-00.txt < prev    next >
Text File  |  1997-08-21  |  144KB  |  3,362 lines

  1.  
  2.  
  3. Network Working Group                                      Eric C. Rosen
  4. Internet Draft                                       Cisco Systems, Inc.
  5. Expiration Date: February 1998
  6.                                                         Arun Viswanathan
  7.                                                                IBM Corp.
  8.  
  9.                                                              Ross Callon
  10.                                              Ascend Communications, Inc.
  11.  
  12.                                                              August 1997
  13.  
  14.  
  15.                     A Proposed Architecture for MPLS
  16.  
  17.  
  18.                       draft-ietf-mpls-arch-00.txt
  19.  
  20. Status of this Memo
  21.  
  22.    This document is an Internet-Draft.  Internet-Drafts are working
  23.    documents of the Internet Engineering Task Force (IETF), its areas,
  24.    and its working groups.  Note that other groups may also distribute
  25.    working documents as Internet-Drafts.
  26.  
  27.    Internet-Drafts are draft documents valid for a maximum of six months
  28.    and may be updated, replaced, or obsoleted by other documents at any
  29.    time.  It is inappropriate to use Internet-Drafts as reference
  30.    material or to cite them other than as "work in progress."
  31.  
  32.    To learn the current status of any Internet-Draft, please check the
  33.    "1id-abstracts.txt" listing contained in the Internet-Drafts Shadow
  34.    Directories on ftp.is.co.za (Africa), nic.nordu.net (Europe),
  35.    munnari.oz.au (Pacific Rim), ds.internic.net (US East Coast), or
  36.    ftp.isi.edu (US West Coast).
  37.  
  38.  
  39. Abstract
  40.  
  41.    This internet draft contains a draft protocol architecture for
  42.    multiprotocol label switching (MPLS). The proposed architecture is
  43.    based on other label switching approaches [2-11] as well as on the
  44.    MPLS Framework document [1].
  45.  
  46.  
  47.  
  48.  
  49.  
  50.  
  51.  
  52.  
  53.  
  54. Rosen, Viswanathan & Callon                                     [Page 1]
  55.  
  56.  
  57. Internet Draft        draft-ietf-mpls-arch-00.txt            August 1997
  58.  
  59.  
  60.  
  61.  
  62. Table of Contents
  63.  
  64.     1          Introduction to MPLS  ...............................   3
  65.     1.1        Overview  ...........................................   3
  66.     1.2        Terminology  ........................................   5
  67.     1.3        Acronyms and Abbreviations  .........................   9
  68.     1.4        Acknowledgments  ....................................  10
  69.     2          Outline of Approach  ................................  10
  70.     2.1        Labels  .............................................  10
  71.     2.2        Upstream and Downstream LSRs  .......................  11
  72.     2.3        Labeled Packet  .....................................  11
  73.     2.4        Label Assignment and Distribution; Attributes  ......  11
  74.     2.5        Label Distribution Protocol (LDP)  ..................  12
  75.     2.6        The Label Stack  ....................................  12
  76.     2.7        The Next Hop Label Forwarding Entry (NHLFE)  ........  13
  77.     2.8        Incoming Label Map (ILM)  ...........................  13
  78.     2.9        Stream-to-NHLFE Map (STN)  ..........................  13
  79.     2.10       Label Swapping  .....................................  14
  80.     2.11       Label Switched Path (LSP), LSP Ingress, LSP Egress  .  14
  81.     2.12       LSP Next Hop  .......................................  16
  82.     2.13       Route Selection  ....................................  17
  83.     2.14       Time-to-Live (TTL)  .................................  18
  84.     2.15       Loop Control  .......................................  19
  85.     2.15.1     Loop Prevention  ....................................  20
  86.     2.15.2     Interworking of Loop Control Options  ...............  22
  87.     2.16       Merging and Non-Merging LSRs  .......................  23
  88.     2.16.1     Stream Merge  .......................................  24
  89.     2.16.2     Non-merging LSRs  ...................................  24
  90.     2.16.3     Labels for Merging and Non-Merging LSRs  ............  25
  91.     2.16.4     Merge over ATM  .....................................  26
  92.     2.16.4.1   Methods of Eliminating Cell Interleave  .............  26
  93.     2.16.4.2   Interoperation: VC Merge, VP Merge, and Non-Merge  ..  26
  94.     2.17       LSP Control: Egress versus Local  ...................  27
  95.     2.18       Granularity  ........................................  29
  96.     2.19       Tunnels and Hierarchy  ..............................  30
  97.     2.19.1     Hop-by-Hop Routed Tunnel  ...........................  30
  98.     2.19.2     Explicitly Routed Tunnel  ...........................  30
  99.     2.19.3     LSP Tunnels  ........................................  30
  100.     2.19.4     Hierarchy: LSP Tunnels within LSPs  .................  31
  101.     2.19.5     LDP Peering and Hierarchy  ..........................  31
  102.     2.20       LDP Transport  ......................................  33
  103.     2.21       Label Encodings  ....................................  33
  104.     2.21.1     MPLS-specific Hardware and/or Software  .............  33
  105.     2.21.2     ATM Switches as LSRs  ...............................  34
  106.     2.21.3     Interoperability among Encoding Techniques  .........  35
  107.     2.22       Multicast  ..........................................  36
  108.  
  109.  
  110.  
  111. Rosen, Viswanathan & Callon                                     [Page 2]
  112.  
  113.  
  114. Internet Draft        draft-ietf-mpls-arch-00.txt            August 1997
  115.  
  116.  
  117.     3          Some Applications of MPLS  ..........................  36
  118.     3.1        MPLS and Hop by Hop Routed Traffic  .................  36
  119.     3.1.1      Labels for Address Prefixes  ........................  36
  120.     3.1.2      Distributing Labels for Address Prefixes  ...........  36
  121.     3.1.2.1    LDP Peers for a Particular Address Prefix  ..........  36
  122.     3.1.2.2    Distributing Labels  ................................  37
  123.     3.1.3      Using the Hop by Hop path as the LSP  ...............  38
  124.     3.1.4      LSP Egress and LSP Proxy Egress  ....................  38
  125.     3.1.5      The POP Label  ......................................  39
  126.     3.1.6      Option: Egress-Targeted Label Assignment  ...........  40
  127.     3.2        MPLS and Explicitly Routed LSPs  ....................  41
  128.     3.2.1      Explicitly Routed LSP Tunnels: Traffic Engineering  .  42
  129.     3.3        Label Stacks and Implicit Peering  ..................  42
  130.     3.4        MPLS and Multi-Path Routing  ........................  43
  131.     3.5        LSPs may be Multipoint-to-Point Entities  ...........  44
  132.     3.6        LSP Tunneling between BGP Border Routers  ...........  44
  133.     3.7        Other Uses of Hop-by-Hop Routed LSP Tunnels  ........  46
  134.     3.8        MPLS and Multicast  .................................  46
  135.     4          LDP Procedures  .....................................  47
  136.     5          Security Considerations  ............................  47
  137.     6          Authors' Addresses  .................................  47
  138.     7          References  .........................................  47
  139.     Appendix A Why Egress Control is Better  .......................  48
  140.     Appendix B Why Local Control is Better  ........................  56
  141.  
  142.  
  143.  
  144.  
  145. 1. Introduction to MPLS
  146.  
  147. 1.1. Overview
  148.  
  149.    In connectionless network layer protocols, as a packet travels from
  150.    one router hop to the next, an independent forwarding decision is
  151.    made at each hop.  Each router analyzes the packet header, and runs a
  152.    network layer routing algorithm. The next hop for a packet is chosen
  153.    based on the header analysis and the result of running the routing
  154.    algorithm.
  155.  
  156.    Packet headers contain considerably more information than is needed
  157.    simply to choose the next hop. Choosing the next hop can therefore be
  158.    thought of as the composition of two functions. The first function
  159.    partitions the entire packet forwarding space into "forwarding
  160.    equivalence classes (FECs)".  The second maps these FECs to a next
  161.    hop.  Multiple network layer headers which get mapped into the same
  162.    FEC are indistinguishable, as far as the forwarding decision is
  163.    concerned. The set of packets belonging to the same FEC, traveling
  164.    from a common node, will follow the same path and be forwarded in the
  165.  
  166.  
  167.  
  168. Rosen, Viswanathan & Callon                                     [Page 3]
  169.  
  170.  
  171. Internet Draft        draft-ietf-mpls-arch-00.txt            August 1997
  172.  
  173.  
  174.    same manner (for example, by being placed in a common queue) towards
  175.    the destination.  This set of packets following the same path,
  176.    belonging to the same FEC (and therefore being forwarded in a common
  177.    manner) may be referred to as a "stream".
  178.  
  179.    In IP forwarding, multiple packets are typically assigned to the same
  180.    Stream by a particular router if there is some address prefix X in
  181.    that router's routing tables such that X is the "longest match" for
  182.    each packet's destination address.
  183.  
  184.    In MPLS, the mapping from packet headers to stream is performed just
  185.    once, as the packet enters the network.  The stream to which the
  186.    packet is assigned is encoded with a short fixed length value known
  187.    as a "label". When a packet is forwarded to its next hop, the label
  188.    is sent along with it; that is, the packets are "labeled".
  189.  
  190.    At subsequent hops, there is no further analysis of the network layer
  191.    header. Rather, the label is used as an index into a table which
  192.    specifies the next hop, and a new label.  The old label is replaced
  193.    with the new label, and the packet is forwarded to its next hop. This
  194.    eliminates the need to perform a longest match computation for each
  195.    packet at each hop; the computation can be performed just once.
  196.  
  197.    Some routers analyze a packet's network layer header not merely to
  198.    choose the packet's next hop, but also to determine a packet's
  199.    "precedence" or "class of service", in order to apply different
  200.    discard thresholds or scheduling disciplines to different packets. In
  201.    MPLS, this can also be inferred from the label, so that no further
  202.    header analysis is needed.
  203.  
  204.    The fact that a packet is assigned to a Stream just once, rather than
  205.    at every hop, allows the use of sophisticated forwarding paradigms.
  206.    A packet that enters the network at a particular router can be
  207.    labeled differently than the same packet entering the network at a
  208.    different router, and as a result forwarding decisions that depend on
  209.    the ingress point ("policy routing") can be easily made.  In fact,
  210.    the policy used to assign a packet to a Stream need not have only the
  211.    network layer header as input; it may use arbitrary information about
  212.    the packet, and/or arbitrary policy information as input.  Since this
  213.    decouples forwarding from routing, it allows one to use MPLS to
  214.    support a large variety of routing policies that are difficult or
  215.    impossible to support with just conventional network layer
  216.    forwarding.
  217.  
  218.    Similarly, MPLS facilitates the use of explicit routing, without
  219.    requiring that each IP packet carry the explicit route. Explicit
  220.    routes may be useful to support policy routing and traffic
  221.    engineering.
  222.  
  223.  
  224.  
  225. Rosen, Viswanathan & Callon                                     [Page 4]
  226.  
  227.  
  228. Internet Draft        draft-ietf-mpls-arch-00.txt            August 1997
  229.  
  230.  
  231.    MPLS makes use of a routing approach whereby the normal mode of
  232.    operation is that L3 routing (e.g., existing IP routing protocols
  233.    and/or new IP routing protocols) is used by all nodes to determine
  234.    the routed path.
  235.  
  236.    MPLS stands for "Multiprotocol" Label Switching, multiprotocol
  237.    because its techniques are applicable to ANY network layer protocol.
  238.    In this document, however, we focus on the use of IP as the network
  239.    layer protocol.
  240.  
  241.    A router which supports MPLS is known as a "Label Switching Router",
  242.    or LSR.
  243.  
  244.    A general discussion of issues related to MPLS is presented in "A
  245.    Framework for Multiprotocol Label Switching" [1].
  246.  
  247.  
  248. 1.2. Terminology
  249.  
  250.    This section gives a general conceptual overview of the terms used in
  251.    this document. Some of these terms are more precisely defined in
  252.    later sections of the document.
  253.  
  254.      aggregate stream          synonym of "stream"
  255.  
  256.      DLCI                      a label used in Frame Relay networks to
  257.                                identify frame relay circuits
  258.  
  259.      flow                      a single instance of an application to
  260.                                application flow of data (as in the RSVP
  261.                                and IFMP use of the term "flow")
  262.  
  263.      forwarding equivalence class   a group of IP packets which are
  264.                                     forwarded in the same manner (e.g.,
  265.                                     over the same path, with the same
  266.                                     forwarding treatment)
  267.  
  268.      frame merge               stream merge, when it is applied to
  269.                                operation over frame based media, so that
  270.                                the potential problem of cell interleave
  271.                                is not an issue.
  272.  
  273.      label                     a short fixed length physically
  274.                                contiguous identifier which is used to
  275.                                identify a stream, usually of local
  276.                                significance.
  277.  
  278.  
  279.  
  280.  
  281.  
  282. Rosen, Viswanathan & Callon                                     [Page 5]
  283.  
  284.  
  285. Internet Draft        draft-ietf-mpls-arch-00.txt            August 1997
  286.  
  287.  
  288.      label information base    the database of information containing
  289.                                label bindings
  290.  
  291.      label swap                the basic forwarding operation consisting
  292.                                of looking up an incoming label to
  293.                                determine the outgoing label,
  294.                                encapsulation, port, and other data
  295.                                handling information.
  296.  
  297.      label swapping            a forwarding paradigm allowing
  298.                                streamlined forwarding of data by using
  299.                                labels to identify streams of data to be
  300.                                forwarded.
  301.  
  302.      label switched hop        the hop between two MPLS nodes, on which
  303.                                forwarding is done using labels.
  304.  
  305.      label switched path       the path created by the concatenation of
  306.                                one or more label switched hops, allowing
  307.                                a packet to be forwarded by swapping
  308.                                labels from an MPLS node to another MPLS
  309.                                node.
  310.  
  311.      layer 2                   the protocol layer under layer 3 (which
  312.                                therefore offers the services used by
  313.                                layer 3).  Forwarding, when done by the
  314.                                swapping of short fixed length labels,
  315.                                occurs at layer 2 regardless of whether
  316.                                the label being examined is an ATM
  317.                                VPI/VCI, a frame relay DLCI, or an MPLS
  318.                                label.
  319.  
  320.      layer 3                   the protocol layer at which IP and its
  321.                                associated routing protocols operate link
  322.                                layer synonymous with layer 2
  323.  
  324.      loop detection            a method of dealing with loops in which
  325.                                loops are allowed to be set up, and data
  326.                                may be transmitted over the loop, but the
  327.                                loop is later detected and closed
  328.  
  329.      loop prevention           a method of dealing with loops in which
  330.                                data is never transmitted over a loop
  331.  
  332.      label stack               an ordered set of labels
  333.  
  334.  
  335.  
  336.  
  337.  
  338.  
  339. Rosen, Viswanathan & Callon                                     [Page 6]
  340.  
  341.  
  342. Internet Draft        draft-ietf-mpls-arch-00.txt            August 1997
  343.  
  344.  
  345.      loop survival             a method of dealing with loops in which
  346.                                data may be transmitted over a loop, but
  347.                                means are employed to limit the amount of
  348.                                network resources which may be consumed
  349.                                by the looping data
  350.  
  351.      label switched path       The path through one or more LSRs at one
  352.                                level of the hierarchy followed by a
  353.                                stream.
  354.  
  355.      label switching router    an MPLS node which is capable of
  356.                                forwarding native L3 packets
  357.  
  358.      merge point               the node at which multiple streams and
  359.                                switched paths are combined into a single
  360.                                stream sent over a single path.
  361.  
  362.      Mlabel                    abbreviation for MPLS label
  363.  
  364.      MPLS core standards       the standards which describe the core
  365.                                MPLS technology
  366.  
  367.      MPLS domain               a contiguous set of nodes which operate
  368.                                MPLS routing and forwarding and which are
  369.                                also in one Routing or Administrative
  370.                                Domain
  371.  
  372.      MPLS edge node            an MPLS node that connects an MPLS domain
  373.                                with a node which is outside of the
  374.                                domain, either because it does not run
  375.                                MPLS, and/or because it is in a different
  376.                                domain. Note that if an LSR has a
  377.                                neighboring host which is not running
  378.                                MPLS, that that LSR is an MPLS edge node.
  379.  
  380.      MPLS egress node          an MPLS edge node in its role in handling
  381.                                traffic as it leaves an MPLS domain
  382.  
  383.      MPLS ingress node         an MPLS edge node in its role in handling
  384.                                traffic as it enters an MPLS domain
  385.  
  386.      MPLS label                a label placed in a short MPLS shim
  387.                                header used to identify streams
  388.  
  389.      MPLS node                 a node which is running MPLS. An MPLS
  390.                                node will be aware of MPLS control
  391.                                protocols, will operate one or more L3
  392.                                routing protocols, and will be capable of
  393.  
  394.  
  395.  
  396. Rosen, Viswanathan & Callon                                     [Page 7]
  397.  
  398.  
  399. Internet Draft        draft-ietf-mpls-arch-00.txt            August 1997
  400.  
  401.  
  402.                                forwarding packets based on labels.  An
  403.                                MPLS node may optionally be also capable
  404.                                of forwarding native L3 packets.
  405.  
  406.      MultiProtocol Label Switching  an IETF working group and the effort
  407.                                     associated with the working group
  408.  
  409.      network layer             synonymous with layer 3
  410.  
  411.      stack                     synonymous with label stack
  412.  
  413.      stream                    an aggregate of one or more flows,
  414.                                treated as one aggregate for the purpose
  415.                                of forwarding in L2 and/or L3 nodes
  416.                                (e.g., may be described using a single
  417.                                label). In many cases a stream may be the
  418.                                aggregate of a very large number of
  419.                                flows.  Synonymous with "aggregate
  420.                                stream".
  421.  
  422.      stream merge              the merging of several smaller streams
  423.                                into a larger stream, such that for some
  424.                                or all of the path the larger stream can
  425.                                be referred to using a single label.
  426.  
  427.      switched path             synonymous with label switched path
  428.  
  429.      virtual circuit           a circuit used by a connection-oriented
  430.                                layer 2 technology such as ATM or Frame
  431.                                Relay, requiring the maintenance of state
  432.                                information in layer 2 switches.
  433.  
  434.      VC merge                  stream merge when it is specifically
  435.                                applied to VCs, specifically so as to
  436.                                allow multiple VCs to merge into one
  437.                                single VC
  438.  
  439.      VP merge                  stream merge when it is applied to VPs,
  440.                                specifically so as to allow multiple VPs
  441.                                to merge into one single VP. In this case
  442.                                the VCIs need to be unique. This allows
  443.                                cells from different sources to be
  444.                                distinguished via the VCI.
  445.  
  446.      VPI/VCI                   a label used in ATM networks to identify
  447.                                circuits
  448.  
  449.  
  450.  
  451.  
  452.  
  453. Rosen, Viswanathan & Callon                                     [Page 8]
  454.  
  455.  
  456. Internet Draft        draft-ietf-mpls-arch-00.txt            August 1997
  457.  
  458.  
  459. 1.3. Acronyms and Abbreviations
  460.  
  461.    ATM                       Asynchronous Transfer Mode
  462.  
  463.    BGP                       Border Gateway Protocol
  464.  
  465.    DLCI                      Data Link Circuit Identifier
  466.  
  467.    FEC                       Forwarding Equivalence Class
  468.  
  469.    STN                       Stream to NHLFE Map
  470.  
  471.    IGP                       Interior Gateway Protocol
  472.  
  473.    ILM                       Incoming Label Map
  474.  
  475.    IP                        Internet Protocol
  476.  
  477.    LIB                       Label Information Base
  478.  
  479.    LDP                       Label Distribution Protocol
  480.  
  481.    L2                        Layer 2
  482.  
  483.    L3                        Layer 3
  484.  
  485.    LSP                       Label Switched Path
  486.  
  487.    LSR                       Label Switching Router
  488.  
  489.    MPLS                      MultiProtocol Label Switching
  490.  
  491.    MPT                       Multipoint to Point Tree
  492.  
  493.    NHLFE                     Next Hop Label Forwarding Entry
  494.  
  495.    SVC                       Switched Virtual Circuit
  496.  
  497.    SVP                       Switched Virtual Path
  498.  
  499.    TTL                       Time-To-Live
  500.  
  501.    VC                        Virtual Circuit
  502.  
  503.    VCI                       Virtual Circuit Identifier
  504.  
  505.    VP                        Virtual Path
  506.  
  507.  
  508.  
  509.  
  510. Rosen, Viswanathan & Callon                                     [Page 9]
  511.  
  512.  
  513. Internet Draft        draft-ietf-mpls-arch-00.txt            August 1997
  514.  
  515.  
  516.    VPI                       Virtual Path Identifier
  517.  
  518.  
  519. 1.4. Acknowledgments
  520.  
  521.    The ideas and text in this document have been collected from a number
  522.    of sources and comments received. We would like to thank Rick Boivie,
  523.    Paul Doolan, Nancy Feldman, Yakov Rekhter, Vijay Srinivasan, and
  524.    George Swallow for their inputs and ideas.
  525.  
  526.  
  527.  
  528. 2. Outline of Approach
  529.  
  530.    In this section, we introduce some of the basic concepts of MPLS and
  531.    describe the general approach to be used.
  532.  
  533.  
  534. 2.1. Labels
  535.  
  536.    A label is a short fixed length locally significant identifier which
  537.    is used to identify a stream. The label is based on the stream or
  538.    forwarding equivalence class that a packet is assigned to. The label
  539.    does not directly encode the network layer address, and is based on
  540.    the network layer address only to the extent that the forwarding
  541.    equivalence class is based on the address.
  542.  
  543.    If Ru and Rd are neighboring LSRs, they may agree to use label L to
  544.    represent Stream S for packets which are sent from Ru to Rd.  That
  545.    is, they can agree to a "mapping" between label L and Stream S for
  546.    packets moving from Ru to Rd.  As a result of such an agreement, L
  547.    becomes Ru's "outgoing label" corresponding to Stream S for such
  548.    packets; L becomes Rd's "incoming label" corresponding to Stream S
  549.    for such packets.
  550.  
  551.    Note that L does not necessarily correspond to Stream S for any
  552.    packets other than those which are being sent from Ru to Rd.  Also, L
  553.    is not an inherently meaningful value and does not have any network-
  554.    wide value; the particular value assigned to L gets its meaning
  555.    solely from the agreement between Ru and Rd.
  556.  
  557.    Sometimes it may be difficult or even impossible for Rd to tell that
  558.    an arriving packet carrying label L comes from Ru, rather than from
  559.    some other LSR.  In such cases, Rd must make sure that the mapping
  560.    from label to FEC is one-to-one.  That is, in such cases, Rd must not
  561.    agree with Ru1 to use L for one purpose, while also agreeing with
  562.    some other LSR Ru2 to use L for a different purpose.
  563.  
  564.  
  565.  
  566.  
  567. Rosen, Viswanathan & Callon                                    [Page 10]
  568.  
  569.  
  570. Internet Draft        draft-ietf-mpls-arch-00.txt            August 1997
  571.  
  572.  
  573.    The scope of labels could be unique per interface, or unique per MPLS
  574.    node, or unique in a network. If labels are unique within a network,
  575.    no label swapping needs to be performed in the MPLS nodes in that
  576.    domain.  The packets are just label forwarded and not label swapped.
  577.    The possible use of labels with network-wide scope is FFS.
  578.  
  579.  
  580. 2.2. Upstream and Downstream LSRs
  581.  
  582.    Suppose Ru and Rd have agreed to map label L to Stream S, for packets
  583.    sent from Ru to Rd.  Then with respect to this mapping, Ru is the
  584.    "upstream LSR", and Rd is the "downstream LSR".
  585.  
  586.    The notion of upstream and downstream relate to agreements between
  587.    nodes of the label values to be assigned for packets belonging to a
  588.    particular Stream that might be traveling from an upstream node to a
  589.    downstream node. This is independent of whether the routing protocol
  590.    actually will cause any packets to be transmitted in that particular
  591.    direction. Thus, Rd is the downstream LSR for a particular mapping
  592.    for label L if it recognizes L-labeled packets from Ru as being in
  593.    Stream S.  This may be true even if routing does not actually forward
  594.    packets for Stream S between nodes Rd and Ru, or if routing has made
  595.    Ru downstream of Rd along the path which is actually used for packets
  596.    in Stream S.
  597.  
  598.  
  599. 2.3. Labeled Packet
  600.  
  601.    A "labeled packet" is a packet into which a label has been encoded.
  602.    The encoding can be done by means of an encapsulation which exists
  603.    specifically for this purpose, or by placing the label in an
  604.    available location in either of the data link or network layer
  605.    headers. Of course, the encoding technique must be agreed to by the
  606.    entity which encodes the label and the entity which decodes the
  607.    label.
  608.  
  609.  
  610. 2.4. Label Assignment and Distribution; Attributes
  611.  
  612.    For unicast traffic in the MPLS architecture, the decision to bind a
  613.    particular label L to a particular Stream S is made by the LSR which
  614.    is downstream with respect to that mapping.  The downstream LSR then
  615.    informs the upstream LSR of the mapping.  Thus labels are
  616.    "downstream-assigned", and are "distributed upstream".
  617.  
  618.    A particular mapping of label L to Stream S, distributed by Rd to Ru,
  619.    may have associated "attributes".  If Ru, acting as a downstream LSR,
  620.    also distributes a mapping of a label to Stream S, then under certain
  621.  
  622.  
  623.  
  624. Rosen, Viswanathan & Callon                                    [Page 11]
  625.  
  626.  
  627. Internet Draft        draft-ietf-mpls-arch-00.txt            August 1997
  628.  
  629.  
  630.    conditions, it may be required to also distribute the corresponding
  631.    attribute that it received from Rd.
  632.  
  633.  
  634. 2.5. Label Distribution Protocol (LDP)
  635.  
  636.    A Label Distribution Protocol (LDP) is a set of procedures by which
  637.    one LSR informs another of the label/Stream mappings it has made.
  638.    Two LSRs which use an LDP to exchange label/Stream mapping
  639.    information are known as "LDP Peers" with respect to the mapping
  640.    information they exchange; we will speak of there being an "LDP
  641.    Adjacency" between them.
  642.  
  643.    (N.B.: two LSRs may be LDP Peers with respect to some set of
  644.    mappings, but not with respect to some other set of mappings.)
  645.  
  646.    The LDP also encompasses any negotiations in which two LDP Peers need
  647.    to engage in order to learn of each other's MPLS capabilities.
  648.  
  649.  
  650. 2.6. The Label Stack
  651.  
  652.    So far, we have spoken as if a labeled packet carries only a single
  653.    label. As we shall see, it is useful to have a more general model in
  654.    which a labeled packet carries a number of labels, organized as a
  655.    last-in, first-out stack.  We refer to this as a "label stack".
  656.  
  657.    At a particular LSR, the decision as to how to forward a labeled
  658.    packet is always based exclusively on the label at the top of the
  659.    stack.
  660.  
  661.    An unlabeled packet can be thought of as a packet whose label stack
  662.    is empty (i.e., whose label stack has depth 0).
  663.  
  664.    If a packet's label stack is of depth m, we refer to the label at the
  665.    bottom of the stack as the level 1 label, to the label above it (if
  666.    such exists) as the level 2 label, and to the label at the top of the
  667.    stack as the level m label.
  668.  
  669.    The utility of the label stack will become clear when we introduce
  670.    the notion of LSP Tunnel and the MPLS Hierarchy (sections 2.19.3 and
  671.    2.19.4).
  672.  
  673.  
  674.  
  675.  
  676.  
  677.  
  678.  
  679.  
  680.  
  681. Rosen, Viswanathan & Callon                                    [Page 12]
  682.  
  683.  
  684. Internet Draft        draft-ietf-mpls-arch-00.txt            August 1997
  685.  
  686.  
  687. 2.7. The Next Hop Label Forwarding Entry (NHLFE)
  688.  
  689.    The "Next Hop Label Forwarding Entry" (NHLFE) is used when forwarding
  690.    a labeled packet. It contains the following information:
  691.  
  692.       1. the packet's next hop
  693.  
  694.       2. the data link encapsulation to use when transmitting the packet
  695.  
  696.       3. the way to encode the label stack when transmitting the packet
  697.  
  698.       4. the operation to perform on the packet's label stack; this is
  699.          one of the following operations:
  700.  
  701.             a) replace the label at the top of the label stack with a
  702.                specified new label
  703.  
  704.             b) pop the label stack
  705.  
  706.             c) replace the label at the top of the label stack with a
  707.                specified new label, and then push one or more specified
  708.                new labels onto the label stack.
  709.  
  710.    Note that at a given LSR, the packet's "next hop" might be that LSR
  711.    itself.  In this case, the LSR would need to pop the top level label
  712.    and examine and operate on the encapsulated packet. This may be a
  713.    lower level label, or may be the native IP packet. This implies that
  714.    in some cases the LSR may need to operate on the IP header in order
  715.    to forward the packet. If the packet's "next hop" is the current LSR,
  716.    then the label stack operation MUST be to "pop the stack".
  717.  
  718.  
  719. 2.8. Incoming Label Map (ILM)
  720.  
  721.    The "Incoming Label Map" (ILM) is a mapping from incoming labels to
  722.    NHLFEs. It is used when forwarding packets that arrive as labeled
  723.    packets.
  724.  
  725.  
  726. 2.9. Stream-to-NHLFE Map (STN)
  727.  
  728.    The "Stream-to-NHLFE" (STN) is a mapping from stream to NHLFEs. It is
  729.    used when forwarding packets that arrive unlabeled, but which are to
  730.    be labeled before being forwarded.
  731.  
  732.  
  733.  
  734.  
  735.  
  736.  
  737.  
  738. Rosen, Viswanathan & Callon                                    [Page 13]
  739.  
  740.  
  741. Internet Draft        draft-ietf-mpls-arch-00.txt            August 1997
  742.  
  743.  
  744. 2.10. Label Swapping
  745.  
  746.    Label swapping is the use of the following procedures to forward a
  747.    packet.
  748.  
  749.    In order to forward a labeled packet, a LSR examines the label at the
  750.    top of the label stack. It uses the ILM to map this label to an
  751.    NHLFE.  Using the information in the NHLFE, it determines where to
  752.    forward the packet, and performs an operation on the packet's label
  753.    stack. It then encodes the new label stack into the packet, and
  754.    forwards the result.
  755.  
  756.    In order to forward an unlabeled packet, a LSR analyzes the network
  757.    layer header, to determine the packet's Stream. It then uses the FTN
  758.    to map this to an NHLFE. Using the information in the NHLFE, it
  759.    determines where to forward the packet, and performs an operation on
  760.    the packet's label stack.  (Popping the label stack would, of course,
  761.    be illegal in this case.)  It then encodes the new label stack into
  762.    the packet, and forwards the result.
  763.  
  764.    It is important to note that when label swapping is in use, the next
  765.    hop is always taken from the NHLFE; this may in some cases be
  766.    different from what the next hop would be if MPLS were not in use.
  767.  
  768.  
  769. 2.11. Label Switched Path (LSP), LSP Ingress, LSP Egress
  770.  
  771.    A "Label Switched Path (LSP) of level m" for a particular packet P is
  772.    a sequence of LSRs,
  773.  
  774.                                <R1, ..., Rn>
  775.  
  776.    with the following properties:
  777.  
  778.       1. R1, the "LSP Ingress", pushes a label onto P's label stack,
  779.          resulting in a label stack of depth m;
  780.  
  781.       2. For all i, 1<i<n, P has a label stack of depth m when received
  782.          by Ri;
  783.  
  784.       3. At no time during P's transit from R1 to R[n-1] does its label
  785.          stack ever have a depth of less than m;
  786.  
  787.       4. For all i, 1<i<n: Ri transmits P to R[i+1] by means of MPLS,
  788.          i.e., by using the label at the top of the label stack (the
  789.          level m label) as an index into an ILM;
  790.  
  791.  
  792.  
  793.  
  794.  
  795. Rosen, Viswanathan & Callon                                    [Page 14]
  796.  
  797.  
  798. Internet Draft        draft-ietf-mpls-arch-00.txt            August 1997
  799.  
  800.  
  801.       5. For all i, 1<i<n: if a system S receives and forwards P after P
  802.          is transmitted by Ri but before P is received by R[i+1] (e.g.,
  803.          Ri and R[i+1] might be connected via a switched data link
  804.          subnetwork, and S might be one of the data link switches), then
  805.          S's forwarding decision is not based on the level m label, or
  806.          on the network layer header. This may be because:
  807.  
  808.             a) the decision is not based on the label stack or the
  809.                network layer header at all;
  810.  
  811.             b) the decision is based on a label stack on which
  812.                additional labels have been pushed (i.e., on a level m+k
  813.                label, where k>0).
  814.  
  815.    In other words, we can speak of the level m LSP for Packet P as the
  816.    sequence of LSRs:
  817.  
  818.       1. which begins with an LSR (an "LSP Ingress") that pushes on a
  819.          level m label,
  820.  
  821.       2. all of whose intermediate LSRs make their forwarding decision
  822.          by label Switching on a level m label,
  823.  
  824.       3. which ends (at an "LSP Egress") when a forwarding decision is
  825.          made by label Switching on a level m-k label, where k>0, or
  826.          when a forwarding decision is made by "ordinary", non-MPLS
  827.          forwarding procedures.
  828.  
  829.    A consequence (or perhaps a presupposition) of this is that whenever
  830.    an LSR pushes a label onto an already labeled packet, it needs to
  831.    make sure that the new label corresponds to a FEC whose LSP Egress is
  832.    the LSR that assigned the label which is now second in the stack.
  833.  
  834.    Note that according to these definitions, if <R1, ..., Rn> is a level
  835.    m LSP for packet P, P may be transmitted from R[n-1] to Rn with a
  836.    label stack of depth m-1. That is, the label stack may be popped at
  837.    the penultimate LSR of the LSP, rather than at the LSP Egress. This
  838.    is appropriate, since the level m label has served its function of
  839.    getting the packet to Rn, and Rn's forwarding decision cannot be made
  840.    until the level m label is popped.  If the label stack is not popped
  841.    by R[n-1], then Rn must do two label lookups; this is an overhead
  842.    which is best avoided.  However, some hardware switching engines may
  843.    not be able to pop the label stack.
  844.  
  845.    The penultimate node pops the label stack only if this is
  846.    specifically requested by the egress node. Having the penultimate
  847.    node pop the label stack has an implication on the assignment of
  848.    labels: For any one node Rn, operating at level m in the MPLS
  849.  
  850.  
  851.  
  852. Rosen, Viswanathan & Callon                                    [Page 15]
  853.  
  854.  
  855. Internet Draft        draft-ietf-mpls-arch-00.txt            August 1997
  856.  
  857.  
  858.    hierarchy, there may be some LSPs which terminate at that node (i.e.,
  859.    for which Rn is the egress node) and some other LSPs which continue
  860.    beyond that node (i.e., for which Rn is an intermediate node). If the
  861.    penultimate node R[n-1] pops the stack for those LSPs which terminate
  862.    at Rn, then node R[n] will receive some packets for which the top of
  863.    the stack is a level m label (i.e., packets destined for other egress
  864.    nodes), and some packets for which the top of the stack is a level
  865.    m-1 label (i.e., packets for which Rn is the egress). This implies
  866.    that in order for node R[n-1] to pop the stack, node Rn must assign
  867.    labels such that level m and level m-1 labels are distinguishable
  868.    (i.e., use unique values across multiple levels of the MPLS
  869.    hierarchy).
  870.  
  871.    Note that if m = 1, the LSP Egress may receive an unlabeled packet,
  872.    and in fact need not even be capable of supporting MPLS. In this
  873.    case, assuming that we are using globally meaningful IP addresses,
  874.    the confusion of labels at multiple levels is not possible. However,
  875.    it is possible that the label may still be of value for the egress
  876.    node. One example is that the label may be used to assign the packet
  877.    to a particular Forwarding Equivalence Class (for example, to
  878.    identify the packet as a high priority packet). Another example is
  879.    that the label may assign the packet to a particular virtual private
  880.    network (for example, the virtual private network may make use of
  881.    local IP addresses, and the label may be necessary to disambiguate
  882.    the addresses). Therefore even when there is only a single label
  883.    value the stack is nonetheless popped only when requested by the
  884.    egress node.
  885.  
  886.    We will call a sequence of LSRs the "LSP for a particular Stream S"
  887.    if it is an LSP of level m for a particular packet P when P's level m
  888.    label is a label corresponding to Stream S.
  889.  
  890.  
  891. 2.12. LSP Next Hop
  892.  
  893.    The LSP Next Hop for a particular labeled packet in a particular LSR
  894.    is the LSR which is the next hop, as selected by the NHLFE entry used
  895.    for forwarding that packet.
  896.  
  897.    The LSP Next Hop for a particular Stream is the next hop as selected
  898.    by the NHLFE entry indexed by a label which corresponds to that
  899.    Stream.
  900.  
  901.  
  902.  
  903.  
  904.  
  905.  
  906.  
  907.  
  908.  
  909. Rosen, Viswanathan & Callon                                    [Page 16]
  910.  
  911.  
  912. Internet Draft        draft-ietf-mpls-arch-00.txt            August 1997
  913.  
  914.  
  915. 2.13. Route Selection
  916.  
  917.    Route selection refers to the method used for selecting the LSP for a
  918.    particular stream. The proposed MPLS protocol architecture supports
  919.    two options for Route Selection: (1) Hop by hop routing, and (2)
  920.    Explicit routing.
  921.  
  922.    Hop by hop routing allows each node to independently choose the next
  923.    hop for the path for a stream. This is the normal mode today with
  924.    existing datagram IP networks. A hop by hop routed LSP refers to an
  925.    LSP whose route is selected using hop by hop routing.
  926.  
  927.    An explicitly routed LSP is an LSP where, at a given LSR, the LSP
  928.    next hop is not chosen by each local node, but rather is chosen by a
  929.    single node (usually the ingress or egress node of the LSP). The
  930.    sequence of LSRs followed by an explicit routing LSP may be chosen by
  931.    configuration, or by a protocol selected by a single node (for
  932.    example, the egress node may make use of the topological information
  933.    learned from a link state database in order to compute the entire
  934.    path for the tree ending at that egress node). Explicit routing may
  935.    be useful for a number of purposes such as allowing policy routing
  936.    and/or facilitating traffic engineering.  With MPLS the explicit
  937.    route needs to be specified at the time that Labels are assigned, but
  938.    the explicit route does not have to be specified with each IP packet.
  939.    This implies that explicit routing with MPLS is relatively efficient
  940.    (when compared with the efficiency of explicit routing for pure
  941.    datagrams).
  942.  
  943.    For any one LSP (at any one level of hierarchy), there are two
  944.    possible options: (i) The entire LSP may be hop by hop routed from
  945.    ingress to egress; (ii) The entire LSP may be explicit routed from
  946.    ingress to egress. Intermediate cases do not make sense: In general,
  947.    an LSP will be explicit routed specifically because there is a good
  948.    reason to use an alternative to the hop by hop routed path. This
  949.    implies that if some of the nodes along the path follow an explicit
  950.    route but some of the nodes make use of hop by hop routing, then
  951.    inconsistent routing will result and loops (or severely inefficient
  952.    paths) may form.
  953.  
  954.    For this reason, it is important that if an explicit route is
  955.    specified for an LSP, then that route must be followed. Note that it
  956.    is relatively simple to *follow* an explicit route which is specified
  957.    in a LDP setup.  We therefore propose that the LDP specification
  958.    require that all MPLS nodes implement the ability to follow an
  959.    explicit route if this is specified.
  960.  
  961.    It is not necessary for a node to be able to create an explicit
  962.    route.  However, in order to ensure interoperability it is necessary
  963.  
  964.  
  965.  
  966. Rosen, Viswanathan & Callon                                    [Page 17]
  967.  
  968.  
  969. Internet Draft        draft-ietf-mpls-arch-00.txt            August 1997
  970.  
  971.  
  972.    to ensure that either (i) Every node knows how to use hop by hop
  973.    routing; or (ii) Every node knows how to create and follow an
  974.    explicit route. We propose that due to the common use of hop by hop
  975.    routing in networks today, it is reasonable to make hop by hop
  976.    routing the default that all nodes need to be able to use.
  977.  
  978.  
  979. 2.14. Time-to-Live (TTL)
  980.  
  981.    In conventional IP forwarding, each packet carries a "Time To Live"
  982.    (TTL) value in its header.  Whenever a packet passes through a
  983.    router, its TTL gets decremented by 1; if the TTL reaches 0 before
  984.    the packet has reached its destination, the packet gets discarded.
  985.  
  986.    This provides some level of protection against forwarding loops that
  987.    may exist due to misconfigurations, or due to failure or slow
  988.    convergence of the routing algorithm. TTL is sometimes used for other
  989.    functions as well, such as multicast scoping, and supporting the
  990.    "traceroute" command. This implies that there are two TTL-related
  991.    issues that MPLS needs to deal with: (i) TTL as a way to suppress
  992.    loops; (ii) TTL as a way to accomplish other functions, such as
  993.    limiting the scope of a packet.
  994.  
  995.    When a packet travels along an LSP, it should emerge with the same
  996.    TTL value that it would have had if it had traversed the same
  997.    sequence of routers without having been label switched.  If the
  998.    packet travels along a hierarchy of LSPs, the total number of LSR-
  999.    hops traversed should be reflected in its TTL value when it emerges
  1000.    from the hierarchy of LSPs.
  1001.  
  1002.    The way that TTL is handled may vary depending upon whether the MPLS
  1003.    label values are carried in an MPLS-specific "shim" header, or if the
  1004.    MPLS labels are carried in an L2 header such as an ATM header or a
  1005.    frame relay header.
  1006.  
  1007.    If the label values are encoded in a "shim" that sits between the
  1008.    data link and network layer headers, then this shim should have a TTL
  1009.    field that is initially loaded from the network layer header TTL
  1010.    field, is decremented at each LSR-hop, and is copied into the network
  1011.    layer header TTL field when the packet emerges from its LSP.
  1012.  
  1013.    If the label values are encoded in an L2 header (e.g., the VPI/VCI
  1014.    field in ATM's AAL5 header), and the labeled packets are forwarded by
  1015.    an L2 switch (e.g., an ATM switch). This implies that unless the data
  1016.    link layer itself has a TTL field (unlike ATM), it will not be
  1017.    possible to decrement a packet's TTL at each LSR-hop. An LSP segment
  1018.    which consists of a sequence of LSRs that cannot decrement a packet's
  1019.    TTL will be called a "non-TTL LSP segment".
  1020.  
  1021.  
  1022.  
  1023. Rosen, Viswanathan & Callon                                    [Page 18]
  1024.  
  1025.  
  1026. Internet Draft        draft-ietf-mpls-arch-00.txt            August 1997
  1027.  
  1028.  
  1029.    When a packet emerges from a non-TTL LSP segment, it should however
  1030.    be given a TTL that reflects the number of LSR-hops it traversed. In
  1031.    the unicast case, this can be achieved by propagating a meaningful
  1032.    LSP length to ingress nodes, enabling the ingress to decrement the
  1033.    TTL value before forwarding packets into a non-TTL LSP segment.
  1034.  
  1035.    Sometimes it can be determined, upon ingress to a non-TTL LSP
  1036.    segment, that a particular packet's TTL will expire before the packet
  1037.    reaches the egress of that non-TTL LSP segment. In this case, the LSR
  1038.    at the ingress to the non-TTL LSP segment must not label switch the
  1039.    packet. This means that special procedures must be developed to
  1040.    support traceroute functionality, for example, traceroute packets may
  1041.    be forwarded using conventional hop by hop forwarding.
  1042.  
  1043.  
  1044. 2.15. Loop Control
  1045.  
  1046.    On a non-TTL LSP segment, by definition, TTL cannot be used to
  1047.    protect against forwarding loops.  The importance of loop control may
  1048.    depend on the particular hardware being used to provide the LSR
  1049.    functions along the non-TTL LSP segment.
  1050.  
  1051.    Suppose, for instance, that ATM switching hardware is being used to
  1052.    provide MPLS switching functions, with the label being carried in the
  1053.    VPI/VCI field. Since ATM switching hardware cannot decrement TTL,
  1054.    there is no protection against loops. If the ATM hardware is capable
  1055.    of providing fair access to the buffer pool for incoming cells
  1056.    carrying different VPI/VCI values, this looping may not have any
  1057.    deleterious effect on other traffic. If the ATM hardware cannot
  1058.    provide fair buffer access of this sort, however, then even transient
  1059.    loops may cause severe degradation of the LSR's total performance.
  1060.  
  1061.    Even if fair buffer access can be provided, it is still worthwhile to
  1062.    have some means of detecting loops that last "longer than possible".
  1063.    In addition, even where TTL and/or per-VC fair queuing provides a
  1064.    means for surviving loops, it still may be desirable where practical
  1065.    to avoid setting up LSPs which loop.
  1066.  
  1067.    The MPLS architecture will therefore provide a technique for ensuring
  1068.    that looping LSP segments can be detected, and a technique for
  1069.    ensuring that looping LSP segments are never created.
  1070.  
  1071.  
  1072.  
  1073.  
  1074.  
  1075.  
  1076.  
  1077.  
  1078.  
  1079.  
  1080. Rosen, Viswanathan & Callon                                    [Page 19]
  1081.  
  1082.  
  1083. Internet Draft        draft-ietf-mpls-arch-00.txt            August 1997
  1084.  
  1085.  
  1086. 2.15.1. Loop Prevention
  1087.  
  1088.    LSR's maintain for each of their LSP's an LSR id list. This list is a
  1089.    list of all the LSR's downstream from this LSR on a given LSP. The
  1090.    LSR id list is used to prevent the formation of switched path loops.
  1091.    The LSR ID list is propagated upstream from a node to its neighbor
  1092.    nodes.  The LSR ID list is used to prevent loops as follows:
  1093.  
  1094.    When a node, R, detects a change in the next hop for a given stream,
  1095.    it asks its new next hop for a label and the associated LSR ID list
  1096.    for that stream.
  1097.  
  1098.    The new next hop responds with a label for the stream and an
  1099.    associated LSR id list.
  1100.  
  1101.    R looks in the LSR id list. If R determines that it, R, is in the
  1102.    list then we have a route loop. In this case, we do nothing and the
  1103.    old LSP will continue to be used until the route protocols break the
  1104.    loop. The means by which the old LSP is replaced by a new LSP after
  1105.    the route protocols breathe loop is described below.
  1106.  
  1107.    If R is not in the LSR id list, R will start a "diffusion"
  1108.    computation [12].  The purpose of the diffusion computation is to
  1109.    prune the tree upstream of R so that we remove all LSR's from the
  1110.    tree that would be on a looping path if R were to switch over to the
  1111.    new LSP.  After those LSR's are removed from the tree, it is safe for
  1112.    R to replace the old LSP with the new LSP (and the old LSP can be
  1113.    released).
  1114.  
  1115.    The diffusion computation works as follows:
  1116.  
  1117.    R adds its LSR id to the list and sends a query message to each of
  1118.    its "upstream" neighbors (i.e. to each of its neighbors that is not
  1119.    the new "downstream" next hop).
  1120.  
  1121.    A node S that receives such a query will process the query as
  1122.    follows:
  1123.  
  1124.      - If node R is not node S's next hop for the given stream, node S
  1125.        will respond to node R will an "OK" message meaning that as far
  1126.        as node S is concerned it is safe for node R to switch over to
  1127.        the new LSP.
  1128.  
  1129.      - If node R is node S's next hop for the stream, node S will check
  1130.        to see if it, node S, is in the LSR id list that it received from
  1131.        node R.  If it is, we have a route loop and S will respond with a
  1132.        "LOOP" message.  R will unsplice the connection to S pruning S
  1133.        from the tree.  The mechanism by which S will get a new LSP for
  1134.  
  1135.  
  1136.  
  1137. Rosen, Viswanathan & Callon                                    [Page 20]
  1138.  
  1139.  
  1140. Internet Draft        draft-ietf-mpls-arch-00.txt            August 1997
  1141.  
  1142.  
  1143.        the stream after the route protocols break the loop is described
  1144.        below.
  1145.  
  1146.      - If node S is not in the LSR id list, S will add its LSR id to the
  1147.        LSR id list and send a new query message further upstream.  The
  1148.        diffusion computation will continue to propagate upstream along
  1149.        each of the paths in the tree upstream of S until either a loop
  1150.        is detected, in which case the node is pruned as described above
  1151.        or we get to a point where a node gets a response ("OK" or
  1152.        "LOOP") from each of its neighbors perhaps because none of those
  1153.        neighbors considers the node in question to be its downstream
  1154.        next hop.  Once a node has received a response from each of its
  1155.        upstream neighbors, it returns an "OK" message to its downstream
  1156.        neighbor.  When the original node, node R, gets a response from
  1157.        each of its neighbors, it is safe to replace the old LSP with the
  1158.        new one because all the paths that would loop have been pruned
  1159.        from the tree.
  1160.  
  1161.    There are a couple of details to discuss:
  1162.  
  1163.      - First, we need to do something about nodes that for one reason or
  1164.        another do not produce a timely response in response to a query
  1165.        message.  If a node Y does not respond to a query from node X
  1166.        because of a failure of some kind, X will not be able to respond
  1167.        to its downstream neighbors (if any) or switch over to a new LSP
  1168.        if X is, like R above, the node that has detected the route
  1169.        change.  This problem is handled by timing out the query message.
  1170.        If a node doesn't receive a response within a "reasonable" period
  1171.        of time, it "unsplices" its VC to the upstream neighbor that is
  1172.        not responding and proceeds as it would if it had received the
  1173.        "LOOP" message.
  1174.  
  1175.      - We also need to be concerned about multiple concurrent routing
  1176.        updates.  What happens, for example, when a node M receives a
  1177.        request for an LSP from an upstream neighbor, N, when M is in the
  1178.        middle of a diffusion computation i.e., it has sent a query
  1179.        upstream but hasn't received all the responses.  Since a
  1180.        downstream node, node R is about to change from one LSP to
  1181.        another, M needs to pass to N an LSR id list corresponding to the
  1182.        union of the old and new LSP's if it is to avoid loops both
  1183.        before and after the transition.  This is easily accomplished
  1184.        since M already has the LSR id list for the old LSP and it gets
  1185.        the LSR id list for the new LSP in the query message.  After R
  1186.        makes the switch from the old LSP to the new one, R sends a new
  1187.        establish message upstream with the LSR id list of (just) the new
  1188.        LSP.  At this point, the nodes upstream of R know that R has
  1189.        switched over to the new LSP and that they can return the id list
  1190.        for (just) the new LSP in response to any new requests for LSP's.
  1191.  
  1192.  
  1193.  
  1194. Rosen, Viswanathan & Callon                                    [Page 21]
  1195.  
  1196.  
  1197. Internet Draft        draft-ietf-mpls-arch-00.txt            August 1997
  1198.  
  1199.  
  1200.        They can also grow the tree to include additional nodes that
  1201.        would not have been valid for the combined LSR id list.
  1202.  
  1203.      - We also need to discuss how a node that doesn't have an LSP for a
  1204.        given stream at the end of a diffusion computation (because it
  1205.        would have been on a looping LSP) gets one after the routing
  1206.        protocols break the loop.  If node L has been pruned from the
  1207.        tree and its local route protocol processing entity breaks the
  1208.        loop by changing L's next hop, L will request a new LSP from its
  1209.        new downstream neighbor which it will use once it executes the
  1210.        diffusion computation as described above.  If the loop is broken
  1211.        by a route change at another point in the loop, i.e. at a point
  1212.        "downstream" of L, L will get a new LSP as the new LSP tree grows
  1213.        upstream from the point of the route change as discussed in the
  1214.        previous paragraph.
  1215.  
  1216.      - Note that when a node is pruned from the tree, the switched path
  1217.        upstream of that node remains "connected".  This is important
  1218.        since it allows the switched path to get "reconnected" to a
  1219.        downstream switched path after a route change with a minimal
  1220.        amount of unsplicing and resplicing once the appropriate
  1221.        diffusion computation(s) have taken place.
  1222.  
  1223.    The LSR Id list can also be used to provide a "loop detection"
  1224.    capability.  To use it in this manner, an LSR which sees that it is
  1225.    already in the LSR Id list for a particular stream will immediately
  1226.    unsplice itself from the switched path for that stream, and will NOT
  1227.    pass the LSR Id list further upstream.  The LSR can rejoin a switched
  1228.    path for the stream when it changes its next hop for that stream, or
  1229.    when it receives a new LSR Id list from its current next hop, in
  1230.    which it is not contained.  The diffusion computation would be
  1231.    omitted.
  1232.  
  1233.  
  1234. 2.15.2. Interworking of Loop Control Options
  1235.  
  1236.    The MPLS protocol architecture allows some nodes to be using loop
  1237.    prevention, while some other nodes are not (i.e., the choice of
  1238.    whether or not to use loop prevention may be a local decision). When
  1239.    this mix is used, it is not possible for a loop to form which
  1240.    includes only nodes which do loop prevention. However, it is possible
  1241.    for loops to form which contain a combination of some nodes which do
  1242.    loop prevention, and some nodes which do not.
  1243.  
  1244.    There are at least four identified cases in which it makes sense to
  1245.    combine nodes which do loop prevention with nodes which do not: (i)
  1246.    For transition, in intermediate states while transitioning from all
  1247.    non-loop-prevention to all loop prevention, or vice versa; (ii) For
  1248.  
  1249.  
  1250.  
  1251. Rosen, Viswanathan & Callon                                    [Page 22]
  1252.  
  1253.  
  1254. Internet Draft        draft-ietf-mpls-arch-00.txt            August 1997
  1255.  
  1256.  
  1257.    interoperability, where one vendor implements loop prevention but
  1258.    another vendor does not; (iii) Where there is a mixed ATM and
  1259.    datagram media network, and where loop prevention is desired over the
  1260.    ATM portions of the network but not over the datagram portions; (iv)
  1261.    where some of the ATM switches can do fair access to the buffer pool
  1262.    on a per-VC basis, and some cannot, and loop prevention is desired
  1263.    over the ATM portions of the network which cannot.
  1264.  
  1265.    Note that interworking is straightforward.  If an LSR is not doing
  1266.    loop prevention, and it receives from a downstream LSR a label
  1267.    mapping which contains loop prevention information, it (a) accepts
  1268.    the label mapping, (b) does NOT pass the loop prevention information
  1269.    upstream, and (c) informs the downstream neighbor that the path is
  1270.    loop-free.
  1271.  
  1272.    Similarly, if an LSR R which is doing loop prevention receives from a
  1273.    downstream LSR a label mapping which does not contain any loop
  1274.    prevention information, then R passes the label mapping upstream with
  1275.    loop prevention information included as if R were the egress for the
  1276.    specified stream.
  1277.  
  1278.    Optionally, a node is permitted to implement the ability of either
  1279.    doing or not doing loop prevention as options, and is permitted to
  1280.    choose which to use for any one particular LSP based on the
  1281.    information obtained from downstream nodes. When the label mapping
  1282.    arrives from downstream, then the node may choose whether to use loop
  1283.    prevention so as to continue to use the same approach as was used in
  1284.    the information passed to it. Note that regardless of whether loop
  1285.    prevention is used the egress nodes (for any particular LSP) always
  1286.    initiates exchange of label mapping information without waiting for
  1287.    other nodes to act.
  1288.  
  1289.  
  1290. 2.16. Merging and Non-Merging LSRs
  1291.  
  1292.    Merge allows multiple upstream LSPs to be merged into a single
  1293.    downstream LSP. When implemented by multiple nodes, this results in
  1294.    the traffic going to a particular egress nodes, based on one
  1295.    particular Stream, to follow a multipoint to point tree (MPT), with
  1296.    the MPT rooted at the egress node and associated with the Stream.
  1297.    This can have a significant effect on reducing the number of labels
  1298.    that need to be maintained by any one particular node.
  1299.  
  1300.    If merge was not used at all it would be necessary for each node to
  1301.    provide the upstream neighbors with a label for each Stream for each
  1302.    upstream node which may be forwarding traffic over the link. This
  1303.    implies that the number of labels needed might not in general be
  1304.    known a priori. However, the use of merge allows a single label to be
  1305.  
  1306.  
  1307.  
  1308. Rosen, Viswanathan & Callon                                    [Page 23]
  1309.  
  1310.  
  1311. Internet Draft        draft-ietf-mpls-arch-00.txt            August 1997
  1312.  
  1313.  
  1314.    used per Stream, therefore allowing label assignment to be done in a
  1315.    common way without regard for the number of upstream nodes which will
  1316.    be using the downstream LSP.
  1317.  
  1318.    The proposed MPLS protocol architecture supports LSP merge, while
  1319.    allowing nodes which do not support LSP merge. This leads to the
  1320.    issue of ensuring correct interoperation between nodes which
  1321.    implement merge and those which do not. The issue is somewhat
  1322.    different in the case of datagram media versus the case of ATM. The
  1323.    different media types will therefore be discussed separately.
  1324.  
  1325.  
  1326. 2.16.1. Stream Merge
  1327.  
  1328.    Let us say that an LSR is capable of Stream Merge if it can receive
  1329.    two packets from different incoming interfaces, and/or with different
  1330.    labels, and send both packets out the same outgoing interface with
  1331.    the same label. This in effect takes two incoming streams and merges
  1332.    them into one. Once the packets are transmitted, the information that
  1333.    they arrived from different interfaces and/or with different incoming
  1334.    labels is lost.
  1335.  
  1336.    Let us say that an LSR is not capable of Stream Merge if, for any two
  1337.    packets which arrive from different interfaces, or with different
  1338.    labels, the packets must either be transmitted out different
  1339.    interfaces, or must have different labels.
  1340.  
  1341.    An LSR which is capable of Stream Merge (a "Merging LSR") needs to
  1342.    maintain only one outgoing label for each FEC. AN LSR which is not
  1343.    capable of Stream Merge (a "Non-merging LSR") may need to maintain as
  1344.    many as N outgoing labels per FEC, where N is the number of LSRs in
  1345.    the network. Hence by supporting Stream Merge, an LSR can reduce its
  1346.    number of outgoing labels by a factor of O(N). Since each label in
  1347.    use requires the dedication of some amount of resources, this can be
  1348.    a significant savings.
  1349.  
  1350.  
  1351. 2.16.2. Non-merging LSRs
  1352.  
  1353.    The MPLS forwarding procedures is very similar to the forwarding
  1354.    procedures used by such technologies as ATM and Frame Relay. That is,
  1355.    a unit of data arrives, a label (VPI/VCI or DLCI) is looked up in a
  1356.    "cross-connect table", on the basis of that lookup an output port is
  1357.    chosen, and the label value is rewritten. In fact, it is possible to
  1358.    use such technologies for MPLS forwarding; LDP can be used as the
  1359.    "signalling protocol" for setting up the cross-connect tables.
  1360.  
  1361.    Unfortunately, these technologies do not necessarily support the
  1362.  
  1363.  
  1364.  
  1365. Rosen, Viswanathan & Callon                                    [Page 24]
  1366.  
  1367.  
  1368. Internet Draft        draft-ietf-mpls-arch-00.txt            August 1997
  1369.  
  1370.  
  1371.    Stream Merge capability. In ATM, if one attempts to perform Stream
  1372.    Merge, the result may be the interleaving of cells from various
  1373.    packets. If cells from different packets get interleaved, it is
  1374.    impossible to reassemble the packets. Some Frame Relay switches use
  1375.    cell switching on their backplanes. These switches may also be
  1376.    incapable of supporting Stream Merge, for the same reason -- cells of
  1377.    different packets may get interleaved, and there is then no way to
  1378.    reassemble the packets.
  1379.  
  1380.    We propose to support two solutions to this problem. First, MPLS will
  1381.    contain procedures which allow the use of non-merging LSRs. Second,
  1382.    MPLS will support procedures which allow certain ATM switches to
  1383.    function as merging LSRs.
  1384.  
  1385.    Since MPLS supports both merging and non-merging LSRs, MPLS also
  1386.    contains procedures to ensure correct interoperation between them.
  1387.  
  1388.  
  1389. 2.16.3. Labels for Merging and Non-Merging LSRs
  1390.  
  1391.    An upstream LSR which supports Stream Merge needs to be sent only one
  1392.    label per FEC. An upstream neighbor which does not support Stream
  1393.    Merge needs to be sent multiple labels per FEC. However, there is no
  1394.    way of knowing a priori how many labels it needs. This will depend on
  1395.    how many LSRs are upstream of it with respect to the FEC in question.
  1396.  
  1397.    In the MPLS architecture, if a particular upstream neighbor does not
  1398.    support Stream Merge, it is not sent any labels for a particular FEC
  1399.    unless it explicitly asks for a label for that FEC. The upstream
  1400.    neighbor may make multiple such requests, and is given a new label
  1401.    each time. When a downstream neighbor receives such a request from
  1402.    upstream, and the downstream neighbor does not itself support Stream
  1403.    Merge, then it must in turn ask its downstream neighbor for another
  1404.    label for the FEC in question.
  1405.  
  1406.    It is possible that there may be some nodes which support merge, but
  1407.    have a limited number of upstream streams which may be merged into a
  1408.    single downstream streams. Suppose for example that due to some
  1409.    hardware limitation a node is capable of merging four upstream LSPs
  1410.    into a single downstream LSP. Suppose however, that this particular
  1411.    node has six upstream LSPs arriving at it for a particular Stream. In
  1412.    this case, this node may merge these into two downstream LSPs
  1413.    (corresponding to two labels that need to be obtained from the
  1414.    downstream neighbor). In this case, the normal operation of the LDP
  1415.    implies that the downstream neighbor will supply this node with a
  1416.    single label for the Stream. This node can then ask its downstream
  1417.    neighbor for one additional label for the Stream, implying that the
  1418.    node will thereby obtain the required two labels.
  1419.  
  1420.  
  1421.  
  1422. Rosen, Viswanathan & Callon                                    [Page 25]
  1423.  
  1424.  
  1425. Internet Draft        draft-ietf-mpls-arch-00.txt            August 1997
  1426.  
  1427.  
  1428.    The interaction between explicit routing and merge is FFS.
  1429.  
  1430.  
  1431. 2.16.4. Merge over ATM
  1432.  
  1433. 2.16.4.1. Methods of Eliminating Cell Interleave
  1434.  
  1435.    There are several methods that can be used to eliminate the cell
  1436.    interleaving problem in ATM, thereby allowing ATM switches to support
  1437.    stream merge: :
  1438.  
  1439.       1. VP merge
  1440.  
  1441.          When VP merge is used, multiple virtual paths are merged into a
  1442.          virtual path, but packets from different sources are
  1443.          distinguished by using different VCs within the VP.
  1444.  
  1445.       2. VC merge
  1446.  
  1447.          When VC merge is used, switches are required to buffer cells
  1448.          from one packet until the entire packet is received (this may
  1449.          be determined by looking for the AAL5 end of frame indicator).
  1450.  
  1451.    VP merge has the advantage that it is compatible with a higher
  1452.    percentage of existing ATM switch implementations. This makes it more
  1453.    likely that VP merge can be used in existing networks. Unlike VC
  1454.    merge, VP merge does not incur any delays at the merge points and
  1455.    also does not impose any buffer requirements.  However, it has the
  1456.    disadvantage that it requires coordination of the VCI space within
  1457.    each VP. There are a number of ways that this can be accomplished.
  1458.    Selection of one or more methods is FFS.
  1459.  
  1460.    This tradeoff between compatibility with existing equipment versus
  1461.    protocol complexity and scalability implies that it is desirable for
  1462.    the MPLS protocol to support both VP merge and VC merge. In order to
  1463.    do so each ATM switch participating in MPLS needs to know whether its
  1464.    immediate ATM neighbors perform VP merge, VC merge, or no merge.
  1465.  
  1466.  
  1467. 2.16.4.2. Interoperation: VC Merge, VP Merge, and Non-Merge
  1468.  
  1469.    The interoperation of the various forms of merging over ATM is most
  1470.    easily described by first describing the interoperation of VC merge
  1471.    with non-merge.
  1472.  
  1473.    In the case where VC merge and non-merge nodes are interconnected the
  1474.    forwarding of cells is based in all cases on a VC (i.e., the
  1475.    concatenation of the VPI and VCI). For each node, if an upstream
  1476.  
  1477.  
  1478.  
  1479. Rosen, Viswanathan & Callon                                    [Page 26]
  1480.  
  1481.  
  1482. Internet Draft        draft-ietf-mpls-arch-00.txt            August 1997
  1483.  
  1484.  
  1485.    neighbor is doing VC merge then that upstream neighbor requires only
  1486.    a single VPI/VCI for a particular Stream (this is analogous to the
  1487.    requirement for a single label in the case of operation over frame
  1488.    media). If the upstream neighbor is not doing merge, then the
  1489.    neighbor will require a single VPI/VCI per Stream for itself, plus
  1490.    enough VPI/VCIs to pass to its upstream neighbors. The number
  1491.    required will be determined by allowing the upstream nodes to request
  1492.    additional VPI/VCIs from their downstream neighbors (this is again
  1493.    analogous to the method used with frame merge).
  1494.  
  1495.    A similar method is possible to support nodes which perform VP merge.
  1496.    In this case the VP merge node, rather than requesting a single
  1497.    VPI/VCI or a number of VPI/VCIs from its downstream neighbor, instead
  1498.    may request a single VP (identified by a VPI) but several VCIs within
  1499.    the VP.  Furthermore, suppose that a non-merge node is downstream
  1500.    from two different VP merge nodes. This node may need to request one
  1501.    VPI/VCI (for traffic originating from itself) plus two VPs (one for
  1502.    each upstream node), each associated with a specified set of VCIs (as
  1503.    requested from the upstream node).
  1504.  
  1505.    In order to support all of VP merge, VC merge, and non-merge, it is
  1506.    therefore necessary to allow upstream nodes to request a combination
  1507.    of zero or more VC identifiers (consisting of a VPI/VCI), plus zero
  1508.    or more VPs (identified by VPIs) each containing a specified number
  1509.    of VCs (identified by a set of VCIs which are significant within a
  1510.    VP). VP merge nodes would therefore request one VP, with a contained
  1511.    VCI for traffic that it originates (if appropriate) plus a VCI for
  1512.    each VC requested from above (regardless of whether or not the VC is
  1513.    part of a containing VP). VC merge node would request only a single
  1514.    VPI/VCI (since they can merge all upstream traffic into a single VC).
  1515.    Non-merge nodes would pass on any requests that they get from above,
  1516.    plus request a VPI/VCI for traffic that they originate (if
  1517.    appropriate).
  1518.  
  1519.  
  1520. 2.17. LSP Control: Egress versus Local
  1521.  
  1522.    There is a choice to be made regarding whether the initial setup of
  1523.    LSPs will be initiated by the egress node, or locally by each
  1524.    individual node.
  1525.  
  1526.    When LSP control is done locally, then each node may at any time pass
  1527.    label bindings to its neighbors for each FEC recognized by that node.
  1528.    In the normal case that the neighboring nodes recognize the same
  1529.    FECs, then nodes may map incoming labels to outgoing labels as part
  1530.    of the normal label swapping forwarding method.
  1531.  
  1532.    When LSP control is done by the egress, then initially only the
  1533.  
  1534.  
  1535.  
  1536. Rosen, Viswanathan & Callon                                    [Page 27]
  1537.  
  1538.  
  1539. Internet Draft        draft-ietf-mpls-arch-00.txt            August 1997
  1540.  
  1541.  
  1542.    egress node passes label bindings to its neighbors corresponding to
  1543.    any FECs which leave the MPLS network at that egress node. Other
  1544.    nodes wait until they get a label from downstream for a particular
  1545.    FEC before passing a corresponding label for the same FEC to upstream
  1546.    nodes.
  1547.  
  1548.    With local control, since each LSR is (at least initially)
  1549.    independently assigning labels to FECs, it is possible that different
  1550.    LSRs may make inconsistent decisions. For example, an upstream LSR
  1551.    may make a coarse decision (map multiple IP address prefixes to a
  1552.    single label) while its downstream neighbor makes a finer grain
  1553.    decision (map each individual IP address prefix to a separate label).
  1554.    With downstream label assignment this can be corrected by having LSRs
  1555.    withdraw labels that it has assigned which are inconsistent with
  1556.    downstream labels, and replace them with new consistent label
  1557.    assignments.
  1558.  
  1559.    Even with egress control it is possible that the choice of egress
  1560.    node may change, or the egress may (based on a change in
  1561.    configuration) change its mind in terms of the granularity which is
  1562.    to be used. This implies the same mechanism will be necessary to
  1563.    allow changes in granularity to bubble up to upstream nodes. The
  1564.    choice of egress or local control may therefore effect the frequency
  1565.    with which this mechanism is used, but will not effect the need for a
  1566.    mechanism to achieve consistency of label granularity. Generally
  1567.    speaking, the choice of local versus egress control does not appear
  1568.    to have any effect on the LDP mechanisms which need to be defined.
  1569.  
  1570.    Egress control and local control can interwork in a very
  1571.    straightforward manner (although some of the advantages ascribed to
  1572.    egress control may be lost, see appendices A and B).  With either
  1573.    approach, (assuming downstream label assignment) the egress node will
  1574.    initially assign labels for particular FECs and will pass these
  1575.    labels to its neighbors. With either approach these label assignments
  1576.    will bubble upstream, with the upstream nodes choosing labels that
  1577.    are consistent with the labels that they receive from downstream. The
  1578.    difference between the two approaches is therefore primarily an issue
  1579.    of what each node does prior to obtaining a label assignment for a
  1580.    particular FEC from downstream nodes: Does it wait, or does it assign
  1581.    a preliminary label under the expectation that it will (probably) be
  1582.    correct?
  1583.  
  1584.    Regardless of which method is used (local control or egress control)
  1585.    each node needs to know (possibly by configuration) what granularity
  1586.    to use for labels that it assigns. Where egress control is used, this
  1587.    requires each node to know the granularity only for streams which
  1588.    leave the MPLS network at that node. For local control, in order to
  1589.    avoid the need to withdraw inconsistent labels, each node in the
  1590.  
  1591.  
  1592.  
  1593. Rosen, Viswanathan & Callon                                    [Page 28]
  1594.  
  1595.  
  1596. Internet Draft        draft-ietf-mpls-arch-00.txt            August 1997
  1597.  
  1598.  
  1599.    network would need to be configured consistently to know the
  1600.    granularity for each stream. However, in many cases this may be done
  1601.    by using a single level of granularity which applies to all streams
  1602.    (such as "one label per IP prefix in the forwarding table").  The
  1603.    choice between local control versus egress control could similarly be
  1604.    left as a configuration option.
  1605.  
  1606.    Future versions of the MPLS architecture will need to choose between
  1607.    three options: (i) Requiring local control; (ii) Requiring egress
  1608.    control; or (iii) Allowing a choice of local control or egress
  1609.    control. Arguments for local versus egress control are contained in
  1610.    appendices A and B.
  1611.  
  1612.  
  1613.  
  1614. 2.18. Granularity
  1615.  
  1616.    When forwarding by label swapping, a stream of packets following a
  1617.    stream arriving from upstream may be mapped into an equal or coarser
  1618.    grain stream. However, a coarse grain stream (for example, containing
  1619.    packets destined for a short IP address prefix covering many subnets)
  1620.    cannot be mapped directly into a finer grain stream (for example,
  1621.    containing packets destined for a longer IP address prefix covering a
  1622.    single subnet). This implies that there needs to be some mechanism
  1623.    for ensuring consistency between the granularity of LSPs in an MPLS
  1624.    network.
  1625.  
  1626.    The method used for ensuring compatibility of granularity may depend
  1627.    upon the method used for LSP control.
  1628.  
  1629.    When LSP control is local, it is possible that a node may pass a
  1630.    coarse grain label to its upstream neighbor(s), and subsequently
  1631.    receive a finer grain label from its downstream neighbor. In this
  1632.    case the node has two options: (i) It may forward the corresponding
  1633.    packets using normal IP datagram forwarding (i.e., by examination of
  1634.    the IP header); (ii) It may withdraw the label mappings that it has
  1635.    passed to its upstream neighbors, and replace these with finer grain
  1636.    label mappings.
  1637.  
  1638.    When LSP control is egress based, the label setup originates from the
  1639.    egress node and passes upstream. It is therefore straightforward with
  1640.    this approach to maintain equally-grained mappings along the route.
  1641.  
  1642.  
  1643.  
  1644.  
  1645.  
  1646.  
  1647.  
  1648.  
  1649.  
  1650. Rosen, Viswanathan & Callon                                    [Page 29]
  1651.  
  1652.  
  1653. Internet Draft        draft-ietf-mpls-arch-00.txt            August 1997
  1654.  
  1655.  
  1656. 2.19. Tunnels and Hierarchy
  1657.  
  1658.    Sometimes a router Ru takes explicit action to cause a particular
  1659.    packet to be delivered to another router Rd, even though Ru and Rd
  1660.    are not consecutive routers on the Hop-by-hop path for that packet,
  1661.    and Rd is not the packet's ultimate destination. For example, this
  1662.    may be done by encapsulating the packet inside a network layer packet
  1663.    whose destination address is the address of Rd itself. This creates a
  1664.    "tunnel" from Ru to Rd. We refer to any packet so handled as a
  1665.    "Tunneled Packet".
  1666.  
  1667.  
  1668. 2.19.1. Hop-by-Hop Routed Tunnel
  1669.  
  1670.    If a Tunneled Packet follows the Hop-by-hop path from Ru to Rd, we
  1671.    say that it is in an "Hop-by-Hop Routed Tunnel" whose "transmit
  1672.    endpoint" is Ru and whose "receive endpoint" is Rd.
  1673.  
  1674.  
  1675. 2.19.2. Explicitly Routed Tunnel
  1676.  
  1677.    If a Tunneled Packet travels from Ru to Rd over a path other than the
  1678.    Hop-by-hop path, we say that it is in an "Explicitly Routed Tunnel"
  1679.    whose "transmit endpoint" is Ru and whose "receive endpoint" is Rd.
  1680.    For example, we might send a packet through an Explicitly Routed
  1681.    Tunnel by encapsulating it in a packet which is source routed.
  1682.  
  1683.  
  1684. 2.19.3. LSP Tunnels
  1685.  
  1686.    It is possible to implement a tunnel as a LSP, and use label
  1687.    switching rather than network layer encapsulation to cause the packet
  1688.    to travel through the tunnel. The tunnel would be a LSP <R1, ...,
  1689.    Rn>, where R1 is the transmit endpoint of the tunnel, and Rn is the
  1690.    receive endpoint of the tunnel. This is called a "LSP Tunnel".
  1691.  
  1692.    The set of packets which are to be sent though the LSP tunnel becomes
  1693.    a Stream, and each LSR in the tunnel must assign a label to that
  1694.    Stream (i.e., must assign a label to the tunnel).  The criteria for
  1695.    assigning a particular packet to an LSP tunnel is a local matter at
  1696.    the tunnel's transmit endpoint.  To put a packet into an LSP tunnel,
  1697.    the transmit endpoint pushes a label for the tunnel onto the label
  1698.    stack and sends the labeled packet to the next hop in the tunnel.
  1699.  
  1700.    If it is not necessary for the tunnel's receive endpoint to be able
  1701.    to determine which packets it receives through the tunnel, as
  1702.    discussed earlier, the label stack may be popped at the penultimate
  1703.    LSR in the tunnel.
  1704.  
  1705.  
  1706.  
  1707. Rosen, Viswanathan & Callon                                    [Page 30]
  1708.  
  1709.  
  1710. Internet Draft        draft-ietf-mpls-arch-00.txt            August 1997
  1711.  
  1712.  
  1713.    A "Hop-by-Hop Routed LSP Tunnel" is a Tunnel that is implemented as
  1714.    an hop-by-hop routed LSP between the transmit endpoint and the
  1715.    receive endpoint.
  1716.  
  1717.    An "Explicitly Routed LSP Tunnel" is a LSP Tunnel that is also an
  1718.    Explicitly Routed LSP.
  1719.  
  1720.  
  1721. 2.19.4. Hierarchy: LSP Tunnels within LSPs
  1722.  
  1723.    Consider a LSP <R1, R2, R3, R4>. Let us suppose that R1 receives
  1724.    unlabeled packet P, and pushes on its label stack the label to cause
  1725.    it to follow this path, and that this is in fact the Hop-by-hop path.
  1726.    However, let us further suppose that R2 and R3 are not directly
  1727.    connected, but are "neighbors" by virtue of being the endpoints of an
  1728.    LSP tunnel. So the actual sequence of LSRs traversed by P is <R1, R2,
  1729.    R21, R22, R23, R3, R4>.
  1730.  
  1731.    When P travels from R1 to R2, it will have a label stack of depth 1.
  1732.    R2, switching on the label, determines that P must enter the tunnel.
  1733.    R2 first replaces the Incoming label with a label that is meaningful
  1734.    to R3.  Then it pushes on a new label. This level 2 label has a value
  1735.    which is meaningful to R21. Switching is done on the level 2 label by
  1736.    R21, R22, R23. R23, which is the penultimate hop in the R2-R3 tunnel,
  1737.    pops the label stack before forwarding the packet to R3. When R3 sees
  1738.    packet P, P has only a level 1 label, having now exited the tunnel.
  1739.    Since R3 is the penultimate hop in P's level 1 LSP, it pops the label
  1740.    stack, and R4 receives P unlabeled.
  1741.  
  1742.    The label stack mechanism allows LSP tunneling to nest to any depth.
  1743.  
  1744.  
  1745. 2.19.5. LDP Peering and Hierarchy
  1746.  
  1747.    Suppose that packet P travels along a Level 1 LSP <R1, R2, R3, R4>,
  1748.    and when going from R2 to R3 travels along a Level 2 LSP <R2, R21,
  1749.    R22, R3>.  From the perspective of the Level 2 LSP, R2's LDP peer is
  1750.    R21.  From the perspective of the Level 1 LSP, R2's LDP peers are R1
  1751.    and R3.  One can have LDP peers at each layer of hierarchy.  We will
  1752.    see in sections 3.6 and 3.7 some ways to make use of this hierarchy.
  1753.    Note that in this example, R2 and R21 must be IGP neighbors, but R2
  1754.    and R3 need not be.
  1755.  
  1756.    When two LSRs are IGP neighbors, we will refer to them as "Local LDP
  1757.    Peers".  When two LSRs may be LDP peers, but are not IGP neighbors,
  1758.    we will refer to them as "Remote LDP Peers".  In the above example,
  1759.    R2 and R21 are local LDP peers, but R2 and R3 are remote LDP peers.
  1760.  
  1761.  
  1762.  
  1763.  
  1764. Rosen, Viswanathan & Callon                                    [Page 31]
  1765.  
  1766.  
  1767. Internet Draft        draft-ietf-mpls-arch-00.txt            August 1997
  1768.  
  1769.  
  1770.    The MPLS architecture supports two ways to distribute labels at
  1771.    different layers of the hierarchy: Explicit Peering and Implicit
  1772.    Peering.
  1773.  
  1774.    One performs label Distribution with one's Local LDP Peers by opening
  1775.    LDP connections to them.  One can perform label Distribution with
  1776.    one's Remote LDP Peers in one of two ways:
  1777.  
  1778.       1. Explicit Peering
  1779.  
  1780.          In explicit peering, one sets up LDP connections between Remote
  1781.          LDP Peers, exactly as one would do for Local LDP Peers.  This
  1782.          technique is most useful when the number of Remote LDP Peers is
  1783.          small, or the number of higher level label mappings is large,
  1784.          or the Remote LDP Peers are in distinct routing areas or
  1785.          domains.  Of course, one needs to know which labels to
  1786.          distribute to which peers; this is addressed in section 3.1.2.
  1787.  
  1788.          Examples of the use of explicit peering is found in sections
  1789.          3.2.1 and 3.6.
  1790.  
  1791.       2. Implicit Peering
  1792.  
  1793.          In Implicit Peering, one does not have LDP connections to one's
  1794.          remote LDP peers, but only to one's local LDP peers.  To
  1795.          distribute higher level labels to ones remote LDP peers, one
  1796.          encodes the higher level labels as an attribute of the lower
  1797.          level labels, and distributes the lower level label, along with
  1798.          this attribute, to the local LDP peers. The local LDP peers
  1799.          then propagate the information to their peers. This process
  1800.          continues till the information reaches remote LDP peers. Note
  1801.          that the intermediary nodes may also be remote LDP peers.
  1802.  
  1803.          This technique is most useful when the number of Remote LDP
  1804.          Peers is large. Implicit peering does not require a n-square
  1805.          peering mesh to distribute labels to the remote LDP peers
  1806.          because the information is piggybacked through the local LDP
  1807.          peering.  However, implicit peering requires the intermediate
  1808.          nodes to store information that they might not be directly
  1809.          interested in.
  1810.  
  1811.          An example of the use of implicit peering is found in section
  1812.          3.3.
  1813.  
  1814.  
  1815.  
  1816.  
  1817.  
  1818.  
  1819.  
  1820.  
  1821. Rosen, Viswanathan & Callon                                    [Page 32]
  1822.  
  1823.  
  1824. Internet Draft        draft-ietf-mpls-arch-00.txt            August 1997
  1825.  
  1826.  
  1827. 2.20. LDP Transport
  1828.  
  1829.    LDP is used between nodes in an MPLS network to establish and
  1830.    maintain the label mappings. In order for LDP to operate correctly,
  1831.    LDP information needs to be transmitted reliably, and the LDP
  1832.    messages pertaining to a particular FEC need to be transmitted in
  1833.    sequence. This may potentially be accomplished either by using an
  1834.    existing reliable transport protocol such as TCP, or by specifying
  1835.    reliability mechanisms as part of LDP (for example, the reliability
  1836.    mechanisms which are defined in IDRP could potentially be "borrowed"
  1837.    for use with LSP). The precise means for accomplishing transport
  1838.    reliability with LSP are for further study, but will be specified by
  1839.    the MPLS Protocol Architecture before the architecture may be
  1840.    considered complete.
  1841.  
  1842.  
  1843. 2.21. Label Encodings
  1844.  
  1845.    In order to transmit a label stack along with the packet whose label
  1846.    stack it is, it is necessary to define a concrete encoding of the
  1847.    label stack.  The architecture supports several different encoding
  1848.    techniques; the choice of encoding technique depends on the
  1849.    particular kind of device being used to forward labeled packets.
  1850.  
  1851.  
  1852. 2.21.1. MPLS-specific Hardware and/or Software
  1853.  
  1854.    If one is using MPLS-specific hardware and/or software to forward
  1855.    labeled packets, the most obvious way to encode the label stack is to
  1856.    define a new protocol to be used as a "shim" between the data link
  1857.    layer and network layer headers.  This shim would really be just an
  1858.    encapsulation of the network layer packet; it would be "protocol-
  1859.    independent" such that it could be used to encapsulate any network
  1860.    layer.  Hence we will refer to it as the "generic MPLS
  1861.    encapsulation".
  1862.  
  1863.    The generic MPLS encapsulation would in turn be encapsulated in a
  1864.    data link layer protocol.
  1865.  
  1866.    The generic MPLS encapsulation should contain the following fields:
  1867.  
  1868.       1. the label stack,
  1869.  
  1870.       2. a Time-to-Live (TTL) field
  1871.  
  1872.  
  1873.  
  1874.  
  1875.  
  1876.  
  1877.  
  1878. Rosen, Viswanathan & Callon                                    [Page 33]
  1879.  
  1880.  
  1881. Internet Draft        draft-ietf-mpls-arch-00.txt            August 1997
  1882.  
  1883.  
  1884.       3. a Class of Service (CoS) field
  1885.  
  1886.    The TTL field permits MPLS to provide a TTL function similar to what
  1887.    is provided by IP.
  1888.  
  1889.    The CoS field permits LSRs to apply various scheduling packet
  1890.    disciplines to labeled packets, without requiring separate labels for
  1891.    separate disciplines.
  1892.  
  1893.    This section is not intended to rule out the use of alternative
  1894.    mechanisms in network environments where such alternatives may be
  1895.    appropriate.
  1896.  
  1897.  
  1898. 2.21.2. ATM Switches as LSRs
  1899.  
  1900.    It will be noted that MPLS forwarding procedures are similar to those
  1901.    of legacy "label swapping" switches such as ATM switches. ATM
  1902.    switches use the input port and the incoming VPI/VCI value as the
  1903.    index into a "cross-connect" table, from which they obtain an output
  1904.    port and an outgoing VPI/VCI value.  Therefore if one or more labels
  1905.    can be encoded directly into the fields which are accessed by these
  1906.    legacy switches, then the legacy switches can, with suitable software
  1907.    upgrades, be used as LSRs.  We will refer to such devices as "ATM-
  1908.    LSRs".
  1909.  
  1910.    There are three obvious ways to encode labels in the ATM cell header
  1911.    (presuming the use of AAL5):
  1912.  
  1913.       1. SVC Encoding
  1914.  
  1915.          Use the VPI/VCI field to encode the label which is at the top
  1916.          of the label stack.  This technique can be used in any network.
  1917.          With this encoding technique, each LSP is realized as an ATM
  1918.          SVC, and the LDP becomes the ATM "signaling" protocol.  With
  1919.          this encoding technique, the ATM-LSRs cannot perform "push" or
  1920.          "pop" operations on the label stack.
  1921.  
  1922.       2. SVP Encoding
  1923.  
  1924.          Use the VPI field to encode the label which is at the top of
  1925.          the label stack, and the VCI field to encode the second label
  1926.          on the stack, if one is present. This technique some advantages
  1927.          over the previous one, in that it permits the use of ATM "VP-
  1928.          switching".  That is, the LSPs are realized as ATM SVPs, with
  1929.          LDP serving as the ATM signaling protocol.
  1930.  
  1931.          However, this technique cannot always be used.  If the network
  1932.  
  1933.  
  1934.  
  1935. Rosen, Viswanathan & Callon                                    [Page 34]
  1936.  
  1937.  
  1938. Internet Draft        draft-ietf-mpls-arch-00.txt            August 1997
  1939.  
  1940.  
  1941.          includes an ATM Virtual Path through a non-MPLS ATM network,
  1942.          then the VPI field is not necessarily available for use by
  1943.          MPLS.
  1944.  
  1945.          When this encoding technique is used, the ATM-LSR at the egress
  1946.          of the VP effectively does a "pop" operation.
  1947.  
  1948.       3. SVP Multipoint Encoding
  1949.  
  1950.          Use the VPI field to encode the label which is at the top of
  1951.          the label stack, use part of the VCI field to encode the second
  1952.          label on the stack, if one is present, and use the remainder of
  1953.          the VCI field to identify the LSP ingress.  If this technique
  1954.          is used, conventional ATM VP-switching capabilities can be used
  1955.          to provide multipoint-to-point VPs.  Cells from different
  1956.          packets will then carry different VCI values, so multipoint-
  1957.          to-point VPs can be provided without any cell interleaving
  1958.          problems.
  1959.  
  1960.          This technique depends on the existence of a capability for
  1961.          assigning small unique values to each ATM switch.
  1962.  
  1963.    If there are more labels on the stack than can be encoded in the ATM
  1964.    header, the ATM encodings must be combined with the generic
  1965.    encapsulation.  This does presuppose that it be possible to tell,
  1966.    when reassembling the ATM cells into packets, whether the generic
  1967.    encapsulation is also present.
  1968.  
  1969.  
  1970. 2.21.3. Interoperability among Encoding Techniques
  1971.  
  1972.    If <R1, R2, R3> is a segment of a LSP, it is possible that R1 will
  1973.    use one encoding of the label stack when transmitting packet P to R2,
  1974.    but R2 will use a different encoding when transmitting a packet P to
  1975.    R3.  In general, the MPLS architecture supports LSPs with different
  1976.    label stack encodings used on different hops.  Therefore, when we
  1977.    discuss the procedures for processing a labeled packet, we speak in
  1978.    abstract terms of operating on the packet's label stack. When a
  1979.    labeled packet is received, the LSR must decode it to determine the
  1980.    current value of the label stack, then must operate on the label
  1981.    stack to determine the new value of the stack, and then encode the
  1982.    new value appropriately before transmitting the labeled packet to its
  1983.    next hop.
  1984.  
  1985.    Unfortunately, ATM switches have no capability for translating from
  1986.    one encoding technique to another.  The MPLS architecture therefore
  1987.    requires that whenever it is possible for two ATM switches to be
  1988.    successive LSRs along a level m LSP for some packet, that those two
  1989.  
  1990.  
  1991.  
  1992. Rosen, Viswanathan & Callon                                    [Page 35]
  1993.  
  1994.  
  1995. Internet Draft        draft-ietf-mpls-arch-00.txt            August 1997
  1996.  
  1997.  
  1998.    ATM switches use the same encoding technique.
  1999.  
  2000.    Naturally there will be MPLS networks which contain a combination of
  2001.    ATM switches operating as LSRs, and other LSRs which operate using an
  2002.    MPLS shim header. In such networks there may be some LSRs which have
  2003.    ATM interfaces as well as "MPLS Shim" interfaces. This is one example
  2004.    of an LSR with different label stack encodings on different hops.
  2005.    Such an LSR may swap off an ATM encoded label stack on an incoming
  2006.    interface and replace it with an MPLS shim header encoded label stack
  2007.    on the outgoing interface.
  2008.  
  2009.  
  2010. 2.22. Multicast
  2011.  
  2012.    This section is for further study
  2013.  
  2014.  
  2015.  
  2016. 3. Some Applications of MPLS
  2017.  
  2018. 3.1. MPLS and Hop by Hop Routed Traffic
  2019.  
  2020.    One use of MPLS is to simplify the process of forwarding packets
  2021.    using hop by hop routing.
  2022.  
  2023.  
  2024. 3.1.1. Labels for Address Prefixes
  2025.  
  2026.    In general, router R determines the next hop for packet P by finding
  2027.    the address prefix X in its routing table which is the longest match
  2028.    for P's destination address.  That is, the packets in a given Stream
  2029.    are just those packets which match a given address prefix in R's
  2030.    routing table. In this case, a Stream can be identified with an
  2031.    address prefix.
  2032.  
  2033.    If packet P must traverse a sequence of routers, and at each router
  2034.    in the sequence P matches the same address prefix, MPLS simplifies
  2035.    the forwarding process by enabling all routers but the first to avoid
  2036.    executing the best match algorithm; they need only look up the label.
  2037.  
  2038.  
  2039. 3.1.2. Distributing Labels for Address Prefixes
  2040.  
  2041. 3.1.2.1. LDP Peers for a Particular Address Prefix
  2042.  
  2043.    LSRs R1 and R2 are considered to be LDP Peers for address prefix X if
  2044.    and only if one of the following conditions holds:
  2045.  
  2046.  
  2047.  
  2048.  
  2049. Rosen, Viswanathan & Callon                                    [Page 36]
  2050.  
  2051.  
  2052. Internet Draft        draft-ietf-mpls-arch-00.txt            August 1997
  2053.  
  2054.  
  2055.       1. R1's route to X is a route which it learned about via a
  2056.          particular instance of a particular IGP, and R2 is a neighbor
  2057.          of R1 in that instance of that IGP
  2058.  
  2059.       2. R1's route to X is a route which it learned about by some
  2060.          instance of routing algorithm A1, and that route is
  2061.          redistributed into an instance of routing algorithm A2, and R2
  2062.          is a neighbor of R1 in that instance of A2
  2063.  
  2064.       3. R1 is the receive endpoint of an LSP Tunnel that is within
  2065.          another LSP, and R2 is a transmit endpoint of that tunnel, and
  2066.          R1 and R2 are participants in a common instance of an IGP, and
  2067.          are in the same IGP area (if the IGP in question has areas),
  2068.          and R1's route to X was learned via that IGP instance, or is
  2069.          redistributed by R1 into that IGP instance
  2070.  
  2071.       4. R1's route to X is a route which it learned about via BGP, and
  2072.          R2 is a BGP peer of R1
  2073.  
  2074.    In general, these rules ensure that if the route to a particular
  2075.    address prefix is distributed via an IGP, the LDP peers for that
  2076.    address prefix are the IGP neighbors.  If the route to a particular
  2077.    address prefix is distributed via BGP, the LDP peers for that address
  2078.    prefix are the BGP peers.  In other cases of LSP tunneling, the
  2079.    tunnel endpoints are LDP peers.
  2080.  
  2081.  
  2082. 3.1.2.2. Distributing Labels
  2083.  
  2084.    In order to use MPLS for the forwarding of normally routed traffic,
  2085.    each LSR MUST:
  2086.  
  2087.       1. bind one or more labels to each address prefix that appears in
  2088.          its routing table;
  2089.  
  2090.       2. for each such address prefix X, use an LDP to distribute the
  2091.          mapping of a label to X to each of its LDP Peers for X.
  2092.  
  2093.    There is also one circumstance in which an LSR must distribute a
  2094.    label mapping for an address prefix, even if it is not the LSR which
  2095.    bound that label to that address prefix:
  2096.  
  2097.       3. If R1 uses BGP to distribute a route to X, naming some other
  2098.          LSR R2 as the BGP Next Hop to X, and if R1 knows that R2 has
  2099.          assigned label L to X, then R1 must distribute the mapping
  2100.          between T and X to any BGP peer to which it distributes that
  2101.          route.
  2102.  
  2103.  
  2104.  
  2105.  
  2106. Rosen, Viswanathan & Callon                                    [Page 37]
  2107.  
  2108.  
  2109. Internet Draft        draft-ietf-mpls-arch-00.txt            August 1997
  2110.  
  2111.  
  2112.    These rules ensure that labels corresponding to address prefixes
  2113.    which correspond to BGP routes are distributed to IGP neighbors if
  2114.    and only if the BGP routes are distributed into the IGP.  Otherwise,
  2115.    the labels bound to BGP routes are distributed only to the other BGP
  2116.    speakers.
  2117.  
  2118.    These rules are intended to indicate which label mappings must be
  2119.    distributed by a given LSR to which other LSRs, NOT to indicate the
  2120.    conditions under which the distribution is to be made.  That is
  2121.    discussed in section 2.17.
  2122.  
  2123.  
  2124. 3.1.3. Using the Hop by Hop path as the LSP
  2125.  
  2126.    If the hop-by-hop path that packet P needs to follow is <R1, ...,
  2127.    Rn>, then <R1, ..., Rn> can be an LSP as long as:
  2128.  
  2129.       1. there is a single address prefix X, such that, for all i,
  2130.          1<=i<n, X is the longest match in Ri's routing table for P's
  2131.          destination address;
  2132.  
  2133.       2. for all i, 1<i<n, Ri has assigned a label to X and distributed
  2134.          that label to R[i-1].
  2135.  
  2136.    Note that a packet's LSP can extend only until it encounters a router
  2137.    whose forwarding tables have a longer best match address prefix for
  2138.    the packet's destination address. At that point, the LSP must end and
  2139.    the best match algorithm must be performed again.
  2140.  
  2141.    Suppose, for example, that packet P, with destination address
  2142.    10.2.153.178 needs to go from R1 to R2 to R3.  Suppose also that R2
  2143.    advertises address prefix 10.2/16 to R1, but advertises 10.2.153/22,
  2144.    10.2.154/22, and 10.2/16 to R3.  That is, R2 is advertising an
  2145.    "aggregated route" to R1.  In this situation, packet P can be label
  2146.    Switched until it reaches R2, but since R2 has performed route
  2147.    aggregation, it must execute the best match algorithm to find P's
  2148.    Stream.
  2149.  
  2150.  
  2151. 3.1.4. LSP Egress and LSP Proxy Egress
  2152.  
  2153.    An LSR R is considered to be an "LSP Egress" LSR for address prefix X
  2154.    if and only if one of the following conditions holds:
  2155.  
  2156.       1. R1 has an address Y, such that X is the address prefix in R1's
  2157.          routing table which is the longest match for Y, or
  2158.  
  2159.  
  2160.  
  2161.  
  2162.  
  2163. Rosen, Viswanathan & Callon                                    [Page 38]
  2164.  
  2165.  
  2166. Internet Draft        draft-ietf-mpls-arch-00.txt            August 1997
  2167.  
  2168.  
  2169.       2. R contains in its routing tables one or more address prefixes Y
  2170.          such that X is a proper initial substring of Y, but R's "LSP
  2171.          previous hops" for X do not contain any such address prefixes
  2172.          Y; that is, R2 is a "deaggregation point" for address prefix X.
  2173.  
  2174.    An LSR R1 is considered to be an "LSP Proxy Egress" LSR for address
  2175.    prefix X if and only if:
  2176.  
  2177.       1. R1's next hop for X is R2 R1 and R2 are not LDP Peers with
  2178.          respect to X (perhaps because R2 does not support MPLS), or
  2179.  
  2180.       2. R1 has been configured to act as an LSP Proxy Egress for X
  2181.  
  2182.    The definition of LSP allows for the LSP Egress to be a node which
  2183.    does not support MPLS; in this case the penultimate node in the LSP
  2184.    is the Proxy Egress.
  2185.  
  2186.  
  2187. 3.1.5. The POP Label
  2188.  
  2189.    The POP label is a label with special semantics which an LSR can bind
  2190.    to an address prefix.  If LSR Ru, by consulting its ILM, sees that
  2191.    labeled packet P must be forwarded next to Rd, but that Rd has
  2192.    distributed a mapping of the POP label to the corresponding address
  2193.    prefix, then instead of replacing the value of the label on top of
  2194.    the label stack, Ru pops the label stack, and then forwards the
  2195.    resulting packet to Rd.
  2196.  
  2197.    LSR Rd distributes a mapping between the POP label and an address
  2198.    prefix X to LSR Ru if and only if:
  2199.  
  2200.       1. the rules of Section 3.1.2 indicate that Rd distributes to Ru a
  2201.          label mapping for X, and
  2202.  
  2203.       2. when the LDP connection between Ru and Rd was opened, Ru
  2204.          indicated that it could support the POP label, and
  2205.  
  2206.       3. Rd is an LSP Egress (not proxy egress) for X.
  2207.  
  2208.    This causes the penultimate LSR on a LSP to pop the label stack. This
  2209.    is quite appropriate; if the LSP Egress is an MPLS Egress for X, then
  2210.    if the penultimate LSR does not pop the label stack, the LSP Egress
  2211.    will need to look up the label, pop the label stack, and then look up
  2212.    the next label (or look up the L3 address, if no more labels are
  2213.    present).  By having the penultimate LSR pop the label stack, the LSP
  2214.    Egress is saved the work of having to look up two labels in order to
  2215.    make its forwarding decision.
  2216.  
  2217.  
  2218.  
  2219.  
  2220. Rosen, Viswanathan & Callon                                    [Page 39]
  2221.  
  2222.  
  2223. Internet Draft        draft-ietf-mpls-arch-00.txt            August 1997
  2224.  
  2225.  
  2226.    However, if the penultimate LSR is an ATM switch, it may not have the
  2227.    capability to pop the label stack.  Hence a POP label mapping may be
  2228.    distributed only to LSRs which can support that function.
  2229.  
  2230.    If the penultimate LSR in an LSP for address prefix X is an LSP Proxy
  2231.    Egress, it acts just as if the LSP Egress had distributed the POP
  2232.    label for X.
  2233.  
  2234.  
  2235. 3.1.6. Option: Egress-Targeted Label Assignment
  2236.  
  2237.    There are situations in which an LSP Ingress, Ri, knows that packets
  2238.    of several different Streams must all follow the same LSP,
  2239.    terminating at, say, LSP Egress Re.  In this case, proper routing can
  2240.    be achieved by using a single label can be used for all such Streams;
  2241.    it is not necessary to have a distinct label for each Stream.  If
  2242.    (and only if) the following conditions hold:
  2243.  
  2244.       1. the address of LSR Re is itself in the routing table as a "host
  2245.          route", and
  2246.  
  2247.       2. there is some way for Ri to determine that Re is the LSP egress
  2248.          for all packets in a particular set of Streams
  2249.  
  2250.    Then Ri may bind a single label to all FECS in the set.  This is
  2251.    known as "Egress-Targeted Label Assignment."
  2252.  
  2253.    How can LSR Ri determine that an LSR Re is the LSP Egress for all
  2254.    packets in a particular Stream?  There are a couple of possible ways:
  2255.  
  2256.      - If the network is running a link state routing algorithm, and all
  2257.        nodes in the area support MPLS, then the routing algorithm
  2258.        provides Ri with enough information to determine the routers
  2259.        through which packets in that Stream must leave the routing
  2260.        domain or area.
  2261.  
  2262.      - It is possible to use LDP to pass information about which address
  2263.        prefixes are "attached" to which egress LSRs.  This method has
  2264.        the advantage of not depending on the presence of link state
  2265.        routing.
  2266.  
  2267.    If egress-targeted label assignment is used, the number of labels
  2268.    that need to be supported throughout the network may be greatly
  2269.    reduced. This may be significant if one is using legacy switching
  2270.    hardware to do MPLS, and the switching hardware can support only a
  2271.    limited number of labels.
  2272.  
  2273.    One possible approach would be to configure the network to use
  2274.  
  2275.  
  2276.  
  2277. Rosen, Viswanathan & Callon                                    [Page 40]
  2278.  
  2279.  
  2280. Internet Draft        draft-ietf-mpls-arch-00.txt            August 1997
  2281.  
  2282.  
  2283.    egress-targeted label assignment by default, but to configure
  2284.    particular LSRs to NOT use egress-targeted label assignment for one
  2285.    or more of the address prefixes for which it is an LSP egress.  We
  2286.    impose the following rule:
  2287.  
  2288.      - If a particular LSR is NOT an LSP Egress for some set of address
  2289.        prefixes, then it should assign labels to the address prefixes in
  2290.        the same way as is done by its LSP next hop for those address
  2291.        prefixes.  That is, suppose Rd is Ru's LSP next hop for address
  2292.        prefixes X1 and X2.  If Rd assigns the same label to X1 and X2,
  2293.        Ru should as well.  If Rd assigns different labels to X1 and X2,
  2294.        then Ru should as well.
  2295.  
  2296.    For example, suppose one wants to make egress-targeted label
  2297.    assignment the default, but to assign distinct labels to those
  2298.    address prefixes for which there are multiple possible LSP egresses
  2299.    (i.e., for those address prefixes which are multi-homed.)  One can
  2300.    configure all LSRs to use egress-targeted label assignment, and then
  2301.    configure a handful of LSRs to assign distinct labels to those
  2302.    address prefixes which are multi-homed.  For a particular multi-homed
  2303.    address prefix X, one would only need to configure this in LSRs which
  2304.    are either LSP Egresses or LSP Proxy Egresses for X.
  2305.  
  2306.    It is important to note that if Ru and Rd are adjacent LSRs in an LSP
  2307.    for X1 and X2, forwarding will still be done correctly if Ru assigns
  2308.    distinct labels to X1 and X2 while Rd assigns just one label to the
  2309.    both of them.  This just means that R1 will map different incoming
  2310.    labels to the same outgoing label, an ordinary occurrence.
  2311.  
  2312.    Similarly, if Rd assigns distinct labels to X1 and X2, but Ru assigns
  2313.    to them both the label corresponding to the address of their LSP
  2314.    Egress or Proxy Egress, forwarding will still be done correctly.  Ru
  2315.    will just map the incoming label to the label which Rd has assigned
  2316.    to the address of that LSP Egress.
  2317.  
  2318.  
  2319. 3.2. MPLS and Explicitly Routed LSPs
  2320.  
  2321.    There are a number of reasons why it may be desirable to use explicit
  2322.    routing instead of hop by hop routing. For example, this allows
  2323.    routes to be based on administrative policies, and allows the routes
  2324.    that LSPs take to be carefully designed to allow traffic engineering
  2325.    (i.e., to allow intentional management of the loading of the
  2326.    bandwidth through the nodes and links in the network).
  2327.  
  2328.  
  2329.  
  2330.  
  2331.  
  2332.  
  2333.  
  2334. Rosen, Viswanathan & Callon                                    [Page 41]
  2335.  
  2336.  
  2337. Internet Draft        draft-ietf-mpls-arch-00.txt            August 1997
  2338.  
  2339.  
  2340. 3.2.1. Explicitly Routed LSP Tunnels: Traffic Engineering
  2341.  
  2342.    In some situations, the network administrators may desire to forward
  2343.    certain classes of traffic along certain pre-specified paths, where
  2344.    these paths differ from the Hop-by-hop path that the traffic would
  2345.    ordinarily follow. This is known as Traffic Engineering.
  2346.  
  2347.    MPLS allows this to be easily done by means of Explicitly Routed LSP
  2348.    Tunnels. All that is needed is:
  2349.  
  2350.       1. A means of selecting the packets that are to be sent into the
  2351.          Explicitly Routed LSP Tunnel;
  2352.  
  2353.       2. A means of setting up the Explicitly Routed LSP Tunnel;
  2354.  
  2355.       3. A means of ensuring that packets sent into the Tunnel will not
  2356.          loop from the receive endpoint back to the transmit endpoint.
  2357.  
  2358.    If the transmit endpoint of the tunnel wishes to put a labeled packet
  2359.    into the tunnel, it must first replace the label value at the top of
  2360.    the stack with a label value that was distributed to it by the
  2361.    tunnel's receive endpoint.  Then it must push on the label which
  2362.    corresponds to the tunnel itself, as distributed to it by the next
  2363.    hop along the tunnel.  To allow this, the tunnel endpoints should be
  2364.    explicit LDP peers. The label mappings they need to exchange are of
  2365.    no interest to the LSRs along the tunnel.
  2366.  
  2367.  
  2368. 3.3. Label Stacks and Implicit Peering
  2369.  
  2370.    Suppose a particular LSR Re is an LSP proxy egress for 10 address
  2371.    prefixes, and it reaches each address prefix through a distinct
  2372.    interface.
  2373.  
  2374.    One could assign a single label to all 10 address prefixes.  Then Re
  2375.    is an LSP egress for all 10 address prefixes.  This ensures that
  2376.    packets for all 10 address prefixes get delivered to Re.  However, Re
  2377.    would then have to look up the network layer address of each such
  2378.    packet in order to choose the proper interface to send the packet on.
  2379.  
  2380.    Alternatively, one could assign a distinct label to each interface.
  2381.    Then Re is an LSP proxy egress for the 10 address prefixes.  This
  2382.    eliminates the need for Re to look up the network layer addresses in
  2383.    order to forward the packets.  However, it can result in the use of a
  2384.    large number of labels.
  2385.  
  2386.    An alternative would be to bind all 10 address prefixes to the same
  2387.    level 1 label (which is also bound to the address of the LSR itself),
  2388.  
  2389.  
  2390.  
  2391. Rosen, Viswanathan & Callon                                    [Page 42]
  2392.  
  2393.  
  2394. Internet Draft        draft-ietf-mpls-arch-00.txt            August 1997
  2395.  
  2396.  
  2397.    and then to bind each address prefix to a distinct level 2 label. The
  2398.    level 2 label would be treated as an attribute of the level 1 label
  2399.    mapping, which we call the "Stack Attribute".  We impose the
  2400.    following rules:
  2401.  
  2402.      - When LSR Ru initially labels an untagged packet, if the longest
  2403.        match for the packet's destination address is X, and R's LSP next
  2404.        hop for X is Rd, and Rd has distributed to R1 a mapping of label
  2405.        L1 X, along with a stack attribute of L2, then
  2406.  
  2407.           1. Ru must push L2 and then L1 onto the packet's label stack,
  2408.              and then forward the packet to Rd;
  2409.  
  2410.           2. When Ru distributes label mappings for X to its LDP peers,
  2411.              it must include L2 as the stack attribute.
  2412.  
  2413.           3. Whenever the stack attribute changes (possibly as a result
  2414.              of a change in Ru's LSP next hop for X), Ru must distribute
  2415.              the new stack attribute.
  2416.  
  2417.    Note that although the label value bound to X may be different at
  2418.    each hop along the LSP, the stack attribute value is passed
  2419.    unchanged, and is set by the LSP proxy egress.
  2420.  
  2421.    Thus the LSP proxy egress for X becomes an "implicit peer" with each
  2422.    other LSR in the routing area or domain.  In this case, explicit
  2423.    peering would be too unwieldy, because the number of peers would
  2424.    become too large.
  2425.  
  2426.  
  2427. 3.4. MPLS and Multi-Path Routing
  2428.  
  2429.    If an LSR supports multiple routes for a particular Stream, then it
  2430.    may assign multiple labels to the Stream, one for each route.  Thus
  2431.    the reception of a second label mapping from a particular neighbor
  2432.    for a particular address prefix should be taken as meaning that
  2433.    either label can be used to represent that address prefix.
  2434.  
  2435.    If multiple label mappings for a particular address prefix are
  2436.    specified, they may have distinct attributes.
  2437.  
  2438.  
  2439.  
  2440.  
  2441.  
  2442.  
  2443.  
  2444.  
  2445.  
  2446.  
  2447.  
  2448. Rosen, Viswanathan & Callon                                    [Page 43]
  2449.  
  2450.  
  2451. Internet Draft        draft-ietf-mpls-arch-00.txt            August 1997
  2452.  
  2453.  
  2454. 3.5. LSPs may be Multipoint-to-Point Entities
  2455.  
  2456.    Consider the case of packets P1 and P2, each of which has a
  2457.    destination address whose longest match, throughout a particular
  2458.    routing domain, is address prefix X.  Suppose that the Hop-by-hop
  2459.    path for P1 is <R1, R2, R3>, and the Hop-by-hop path for P2 is <R4,
  2460.    R2, R3>.  Let's suppose that R3 binds label L3 to X, and distributes
  2461.    this mapping to R2.  R2 binds label L2 to X, and distributes this
  2462.    mapping to both R1 and R4.  When R2 receives packet P1, its incoming
  2463.    label will be L2. R2 will overwrite L2 with L3, and send P1 to R3.
  2464.    When R2 receives packet P2, its incoming label will also be L2.  R2
  2465.    again overwrites L2 with L3, and send P2 on to R3.
  2466.  
  2467.    Note then that when P1 and P2 are traveling from R2 to R3, they carry
  2468.    the same label, and as far as MPLS is concerned, they cannot be
  2469.    distinguished.  Thus instead of talking about two distinct LSPs, <R1,
  2470.    R2, R3> and <R4, R2, R3>, we might talk of a single "Multipoint-to-
  2471.    Point LSP", which we might denote as <{R1, R4}, R2, R3>.
  2472.  
  2473.    This creates a difficulty when we attempt to use conventional ATM
  2474.    switches as LSRs.  Since conventional ATM switches do not support
  2475.    multipoint-to-point connections, there must be procedures to ensure
  2476.    that each LSP is realized as a point-to-point VC.  However, if ATM
  2477.    switches which do support multipoint-to-point VCs are in use, then
  2478.    the LSPs can be most efficiently realized as multipoint-to-point VCs.
  2479.    Alternatively, if the SVP Multipoint Encoding (section 2.21) can be
  2480.    used, the LSPs can be realized as multipoint-to-point SVPs.
  2481.  
  2482.  
  2483. 3.6. LSP Tunneling between BGP Border Routers
  2484.  
  2485.    Consider the case of an Autonomous System, A, which carries transit
  2486.    traffic between other Autonomous Systems. Autonomous System A will
  2487.    have a number of BGP Border Routers, and a mesh of BGP connections
  2488.    among them, over which BGP routes are distributed. In many such
  2489.    cases, it is desirable to avoid distributing the BGP routes to
  2490.    routers which are not BGP Border Routers.  If this can be avoided,
  2491.    the "route distribution load" on those routers is significantly
  2492.    reduced. However, there must be some means of ensuring that the
  2493.    transit traffic will be delivered from Border Router to Border Router
  2494.    by the interior routers.
  2495.  
  2496.    This can easily be done by means of LSP Tunnels. Suppose that BGP
  2497.    routes are distributed only to BGP Border Routers, and not to the
  2498.    interior routers that lie along the Hop-by-hop path from Border
  2499.    Router to Border Router. LSP Tunnels can then be used as follows:
  2500.  
  2501.  
  2502.  
  2503.  
  2504.  
  2505. Rosen, Viswanathan & Callon                                    [Page 44]
  2506.  
  2507.  
  2508. Internet Draft        draft-ietf-mpls-arch-00.txt            August 1997
  2509.  
  2510.  
  2511.       1. Each BGP Border Router distributes, to every other BGP Border
  2512.          Router in the same Autonomous System, a label for each address
  2513.          prefix that it distributes to that router via BGP.
  2514.  
  2515.       2. The IGP for the Autonomous System maintains a host route for
  2516.          each BGP Border Router. Each interior router distributes its
  2517.          labels for these host routes to each of its IGP neighbors.
  2518.  
  2519.       3. Suppose that:
  2520.  
  2521.             a) BGP Border Router B1 receives an unlabeled packet P,
  2522.  
  2523.             b) address prefix X in B1's routing table is the longest
  2524.                match for the destination address of P,
  2525.  
  2526.             c) the route to X is a BGP route,
  2527.  
  2528.             d) the BGP Next Hop for X is B2,
  2529.  
  2530.             e) B2 has bound label L1 to X, and has distributed this
  2531.                mapping to B1,
  2532.  
  2533.             f) the IGP next hop for the address of B2 is I1,
  2534.  
  2535.             g) the address of B2 is in B1's and I1's IGP routing tables
  2536.                as a host route, and
  2537.  
  2538.             h) I1 has bound label L2 to the address of B2, and
  2539.                distributed this mapping to B1.
  2540.  
  2541.          Then before sending packet P to I1, B1 must create a label
  2542.          stack for P, then push on label L1, and then push on label L2.
  2543.  
  2544.       4. Suppose that BGP Border Router B1 receives a labeled Packet P,
  2545.          where the label on the top of the label stack corresponds to an
  2546.          address prefix, X, to which the route is a BGP route, and that
  2547.          conditions 3b, 3c, 3d, and 3e all hold. Then before sending
  2548.          packet P to I1, B1 must replace the label at the top of the
  2549.          label stack with L1, and then push on label L2.
  2550.  
  2551.    With these procedures, a given packet P follows a level 1 LSP all of
  2552.    whose members are BGP Border Routers, and between each pair of BGP
  2553.    Border Routers in the level 1 LSP, it follows a level 2 LSP.
  2554.  
  2555.    These procedures effectively create a Hop-by-Hop Routed LSP Tunnel
  2556.    between the BGP Border Routers.
  2557.  
  2558.    Since the BGP border routers are exchanging label mappings for
  2559.  
  2560.  
  2561.  
  2562. Rosen, Viswanathan & Callon                                    [Page 45]
  2563.  
  2564.  
  2565. Internet Draft        draft-ietf-mpls-arch-00.txt            August 1997
  2566.  
  2567.  
  2568.    address prefixes that are not even known to the IGP routing, the BGP
  2569.    routers should become explicit LDP peers with each other.
  2570.  
  2571.  
  2572. 3.7. Other Uses of Hop-by-Hop Routed LSP Tunnels
  2573.  
  2574.    The use of Hop-by-Hop Routed LSP Tunnels is not restricted to tunnels
  2575.    between BGP Next Hops. Any situation in which one might otherwise
  2576.    have used an encapsulation tunnel is one in which it is appropriate
  2577.    to use a Hop-by-Hop Routed LSP Tunnel. Instead of encapsulating the
  2578.    packet with a new header whose destination address is the address of
  2579.    the tunnel's receive endpoint, the label corresponding to the address
  2580.    prefix which is the longest match for the address of the tunnel's
  2581.    receive endpoint is pushed on the packet's label stack. The packet
  2582.    which is sent into the tunnel may or may not already be labeled.
  2583.  
  2584.    If the transmit endpoint of the tunnel wishes to put a labeled packet
  2585.    into the tunnel, it must first replace the label value at the top of
  2586.    the stack with a label value that was distributed to it by the
  2587.    tunnel's receive endpoint.  Then it must push on the label which
  2588.    corresponds to the tunnel itself, as distributed to it by the next
  2589.    hop along the tunnel.  To allow this, the tunnel endpoints should be
  2590.    explicit LDP peers. The label mappings they need to exchange are of
  2591.    no interest to the LSRs along the tunnel.
  2592.  
  2593.  
  2594. 3.8. MPLS and Multicast
  2595.  
  2596.    Multicast routing proceeds by constructing multicast trees. The tree
  2597.    along which a particular multicast packet must get forwarded depends
  2598.    in general on the packet's source address and its destination
  2599.    address.  Whenever a particular LSR is a node in a particular
  2600.    multicast tree, it binds a label to that tree.  It then distributes
  2601.    that mapping to its parent on the multicast tree.  (If the node in
  2602.    question is on a LAN, and has siblings on that LAN, it must also
  2603.    distribute the mapping to its siblings.  This allows the parent to
  2604.    use a single label value when multicasting to all children on the
  2605.    LAN.)
  2606.  
  2607.    When a multicast labeled packet arrives, the NHLFE corresponding to
  2608.    the label indicates the set of output interfaces for that packet, as
  2609.    well as the outgoing label. If the same label encoding technique is
  2610.    used on all the outgoing interfaces, the very same packet can be sent
  2611.    to all the children.
  2612.  
  2613.  
  2614.  
  2615.  
  2616.  
  2617.  
  2618.  
  2619. Rosen, Viswanathan & Callon                                    [Page 46]
  2620.  
  2621.  
  2622. Internet Draft        draft-ietf-mpls-arch-00.txt            August 1997
  2623.  
  2624.  
  2625. 4. LDP Procedures
  2626.  
  2627.    This section is FFS.
  2628.  
  2629.  
  2630. 5. Security Considerations
  2631.  
  2632.    Security considerations are not discussed in this version of this
  2633.    draft.
  2634.  
  2635.  
  2636. 6. Authors' Addresses
  2637.  
  2638.       Eric C. Rosen
  2639.       Cisco Systems, Inc.
  2640.       250 Apollo Drive
  2641.       Chelmsford, MA, 01824
  2642.       E-mail: erosen@cisco.com
  2643.  
  2644.       Arun Viswanathan
  2645.       IBM Corp.
  2646.       17 Skyline Drive
  2647.       Hawthorne NY 10532
  2648.       914-784-3273
  2649.       E-mail: arunv@vnet.ibm.com
  2650.  
  2651.       Ross Callon
  2652.       Ascend Communications, Inc.
  2653.       1 Robbins Road
  2654.       Westford, MA 01886
  2655.       508-952-7412
  2656.       E-mail: rcallon@casc.com
  2657.  
  2658.  
  2659. 7. References
  2660.  
  2661.    [1] "A Framework for Multiprotocol Label Switching", R.Callon,
  2662.    P.Doolan, N.Feldman, A.Fredette, G.Swallow, and A.Viswanathan, work
  2663.    in progress, Internet Draft <draft-ietf-mpls-framework-01.txt>, July
  2664.    1997.
  2665.  
  2666.    [2] "ARIS: Aggregate Route-Based IP Switching", A. Viswanathan, N.
  2667.    Feldman, R. Boivie, R. Woundy, work in progress, Internet Draft
  2668.    <draft-viswanathan-aris-overview-00.txt>, March 1997.
  2669.  
  2670.    [3] "ARIS Specification", N. Feldman, A. Viswanathan, work in
  2671.    progress, Internet Draft <draft-feldman-aris-spec-00.txt>, March
  2672.    1997.
  2673.  
  2674.  
  2675.  
  2676. Rosen, Viswanathan & Callon                                    [Page 47]
  2677.  
  2678.  
  2679. Internet Draft        draft-ietf-mpls-arch-00.txt            August 1997
  2680.  
  2681.  
  2682.    [4] "ARIS Support for LAN Media Switching", S. Blake, A. Ghanwani, W.
  2683.    Pace, V. Srinivasan, work in progress, Internet Draft <draft-blake-
  2684.    aris-lan-00.txt>, March 1997.
  2685.  
  2686.    [5] "Tag Switching Architecture - Overview", Rekhter, Davie, Katz,
  2687.    Rosen, Swallow, Farinacci, work in progress, Internet Draft <draft-
  2688.    rekhter-tagswitch-arch-00.txt>, January, 1997.
  2689.  
  2690.    [6] "Tag distribution Protocol", Doolan, Davie, Katz, Rekhter, Rosen,
  2691.    work in progress, Internet Draft <draft-doolan-tdp-spec-01.txt>, May,
  2692.    1997.
  2693.  
  2694.    [7] "Use of Tag Switching with ATM", Davie, Doolan, Lawrence,
  2695.    McGloghrie, Rekhter, Rosen, Swallow, work in progress, Internet Draft
  2696.    <draft-davie-tag-switching-atm-01.txt>, January, 1997.
  2697.  
  2698.    [8] "Label Switching: Label Stack Encodings", Rosen, Rekhter, Tappan,
  2699.    Farinacci, Fedorkow, Li, work in progress, Internet Draft <draft-
  2700.    rosen-tag-stack-02.txt>, June, 1997.
  2701.  
  2702.    [9] "Partitioning Tag Space among Multicast Routers on a Common
  2703.    Subnet", Farinacci, work in progress, internet draft <draft-
  2704.    farinacci-multicast-tag-part-00.txt>, December, 1996.
  2705.  
  2706.    [10] "Multicast Tag Binding and Distribution using PIM", Farinacci,
  2707.    Rekhter, work in progress, internet draft <draft-farinacci-
  2708.    multicast-tagsw-00.txt>, December, 1996.
  2709.  
  2710.    [11] "Toshiba's Router Architecture Extensions for ATM: Overview",
  2711.    Katsube, Nagami, Esaki, RFC 2098, February, 1997.
  2712.  
  2713.    [12] "Loop-Free Routing Using Diffusing Computations", J.J. Garcia-
  2714.    Luna-Aceves, IEEE/ACM Transactions on Networking, Vol. 1, No. 1,
  2715.    February 1993.
  2716.  
  2717.  
  2718.  Appendix A Why Egress Control is Better
  2719.  
  2720.    This section is written by Arun Viswanathan.
  2721.  
  2722.    It is demonstrated here why egress control is a necessary and
  2723.    sufficient mechanism for the LDP, and therefore is the optimal method
  2724.    for setting up LSPs.
  2725.  
  2726.    The necessary condition is established by citing counter examples
  2727.    that can be achieved *only* by egress control.  It's also established
  2728.    why these typical scenarios are vital requirements for a
  2729.    multiprotocol LDP.  The sufficiency part is established by proving
  2730.  
  2731.  
  2732.  
  2733. Rosen, Viswanathan & Callon                                    [Page 48]
  2734.  
  2735.  
  2736. Internet Draft        draft-ietf-mpls-arch-00.txt            August 1997
  2737.  
  2738.  
  2739.    that egress control subsumes the local control.
  2740.  
  2741.    Then finally, some discussions are made to mitigate concerns
  2742.    expressed against not having local control.  It is shown that local
  2743.    control has clearly undesirable properties which may lead to severe
  2744.    scalability and robustness problems.  It is also shown that in having
  2745.    both egress control and local control simultaneously in a network
  2746.    leads to interoperability problems and how local control abrogates
  2747.    the essential benefits of egress control.
  2748.  
  2749.    A complete and self-contained case is presented here that clearly
  2750.    establishes that egress control is the preponderant mechanism for
  2751.    LDP, and it suffices to support egress control alone as the
  2752.    distribution paradigm.
  2753.  
  2754.    A.1 Definition of an Egress
  2755.  
  2756.    A node is identified as an "egress" for a Stream, if:
  2757.  
  2758.       1) it's at a routing boundary for that Stream,
  2759.       2) the next hop for that Stream is non-MPLS,
  2760.       3) the Stream is directly attached or the node itself.
  2761.  
  2762.    Nodes that satisfy conditions 1 or 2 for Streams, will by default
  2763.    start behaving as egress for those streams.  Note that conditions 1
  2764.    and 2 can be learned dynamically.  For condition 3, nodes will not by
  2765.    default act as an egress for themselves or directly attached
  2766.    networks.  If this condition is made the default, the LSPs setup by
  2767.    egress control will create LSPs that are identical to the LSPs
  2768.    created by local control.
  2769.  
  2770.    A.2 Overview of Egress Control
  2771.  
  2772.    When a node is an egress for a Stream, it originates a LSP setup
  2773.    message for that particular Stream.  The setup message is sent to all
  2774.    MPLS neighbors, except the next hop neighbor.  Each of these messages
  2775.    to the neighbors carry an appropriate label for that Stream.  When a
  2776.    node in a MPLS domain receives a setup message from a neighbor for a
  2777.    particular Stream, it checks if that neighbor is the next hop for the
  2778.    given Stream.  If so, it propagates the message to all its MPLS
  2779.    neighbors, except the next hop from which the message arrived.  If
  2780.    not, the node may keep the label provided in the setup message for
  2781.    future use or negatively acknowledge the node that sent the message
  2782.    to release the label assignment.  But it must not forward the setup
  2783.    message from the incorrect next hop to any of its neighbors.  This
  2784.    flooding scheme is similar in mechanism to Reverse Path Multicast.
  2785.  
  2786.    When a next hop for a Stream changes due to change in network
  2787.  
  2788.  
  2789.  
  2790. Rosen, Viswanathan & Callon                                    [Page 49]
  2791.  
  2792.  
  2793. Internet Draft        draft-ietf-mpls-arch-00.txt            August 1997
  2794.  
  2795.  
  2796.    topology, or a new node joins the topology, the node is locally
  2797.    appended to the existing LSP, without requiring egress intervention.
  2798.    The node may either request the label mapping from the new next hop,
  2799.    or use the previously stored (but unused) label from that next hop.
  2800.    In the former case, the new next hop immediately responds with a
  2801.    label mapping for that Stream if it has its own downstream mapping
  2802.    for that Stream.
  2803.  
  2804.    A.3 Why Egress Control is Necessary
  2805.  
  2806.    There are some important situations in which egress control is
  2807.    necessary:
  2808.  
  2809.      - Shutting off an LSP
  2810.  
  2811.        If for some reason a network administrator requires to "shut off"
  2812.        a LSP setup for a particular Stream, s/he can configure the
  2813.        egress node for that Stream for the desired result.  Note that
  2814.        the requirement to shut off an LSP is a very fundamental one.  If
  2815.        a destination has network layer reachability but no MPLS layer
  2816.        reachability (because of a problem in MPLS layer), shutting off
  2817.        an LSP provides the only means to reach that destination.  This
  2818.        mode of operation can be used by LSRs in a network that aren't a
  2819.        sink for large amounts of data.  These LSRs usually require an
  2820.        occasional telnet or network management traffic.  It's important
  2821.        to provide the capability that such nodes in a network can be
  2822.        accessed through hop-by-hop connectivity avoiding the MPLS layer
  2823.        optimization.  The reachability is more important than
  2824.        optimization in instances like this.  The MPLS architecture MUST
  2825.        provide this capability.
  2826.  
  2827.        Note that this is only possible in local control when each node
  2828.        in an entire network is configured to shut off a LSP setup for a
  2829.        particular Stream.  Such is neither desirable nor scalable.
  2830.  
  2831.      - Egress Aggregation
  2832.  
  2833.        In some networks, due to the absence of routing summarization,
  2834.        aggregation may not be possible through routing information.
  2835.        However, with Egress control, it is possible to aggregate *all*
  2836.        Streams that exit the network through a common egress node with a
  2837.        single LSP.  This is achieved easily because the egress simply
  2838.        can use the same label for all Streams.
  2839.  
  2840.        Such is simply not possible with the Local control; with local
  2841.        knowledge LSRs cannot map several Streams to a single label
  2842.        because it is unknown if Streams will diverge at some subsequent
  2843.        downstream node.
  2844.  
  2845.  
  2846.  
  2847. Rosen, Viswanathan & Callon                                    [Page 50]
  2848.  
  2849.  
  2850. Internet Draft        draft-ietf-mpls-arch-00.txt            August 1997
  2851.  
  2852.  
  2853.        The egress aggregation works for both distance vector protocols
  2854.        and link state protocols; it is protocol independent.  Note that
  2855.        when using VP switching in conjunction with some distance vector
  2856.        protocols it becomes very essential that such aggregation be
  2857.        possible, as there are many vendor switches that don't have VC
  2858.        merging capability, and have limited VP switching capability.
  2859.        The egress control provides such vendors with a level-playing
  2860.        field to compete with MPLS products. Moreover, this capability
  2861.        can be very useful in enterprise networks; where several legacy
  2862.        LANs at a site can be aggregated to the egress LSR at that site.
  2863.        Furthermore, this approach can drastically reduce signalling and
  2864.        LSP state maintenance overheads in the entire network.
  2865.  
  2866.      - Loop Prevention
  2867.  
  2868.        The loop-prevention mechanism only works from the egress node for
  2869.        multipoint-to-point LSPs, since the loop prevention mechanism
  2870.        requires the list of LSR nodes through which the setup message
  2871.        has already traversed in order to identify and prevent LSP loops.
  2872.  
  2873.        A loop prevention scheme is not possible through local control.
  2874.  
  2875.      - De-aggregation
  2876.  
  2877.        Egress control provides the capability to de-aggregate one or
  2878.        more Streams from an aggregated Stream.  For example, if a
  2879.        network is aggregating all CIDRs of an EBGP node into a single
  2880.        LSP, with egress control, a specific CIDR from this bundle can be
  2881.        given its own dedicated LSP.  This enables one to apply special
  2882.        policies to specific CIDRs when required.
  2883.  
  2884.        In the local control this can be achieved only by configuring
  2885.        every node in the network with specific de-aggregation
  2886.        information and the associated policy.  This approach can lead
  2887.        severe scalability problems.
  2888.  
  2889.      - Unique Labels
  2890.  
  2891.        As is known, when using VP merging, all ingresses must have
  2892.        unique VCI values to prevent cell interleaving.  With egress
  2893.        control, it is possible to distribute unique VCI values to the
  2894.        ingress nodes, avoiding the need to configure each ingress node.
  2895.        The egress node can pick a unique VCI for each ingress node.
  2896.        Another benefit of egress control is that each egress can be
  2897.        configured with a unique label value in the case of egress
  2898.        aggregation (as described above).  Since the label value is
  2899.        unique, the same label value can be used on all the segments of a
  2900.        LSP.  This enables one to identify anywhere in a network each LSP
  2901.  
  2902.  
  2903.  
  2904. Rosen, Viswanathan & Callon                                    [Page 51]
  2905.  
  2906.  
  2907. Internet Draft        draft-ietf-mpls-arch-00.txt            August 1997
  2908.  
  2909.  
  2910.        that is associated with a certain egress node, thus easing
  2911.        network debugging.
  2912.  
  2913.        This again, is not possible in the local control because of the
  2914.        lack of a single coordinating node.
  2915.  
  2916.    A.4 Examples that work better through egress control
  2917.  
  2918.    Local control needs to propagate attributes that come from the
  2919.    downstream node to all upstream nodes.  This behavior itself can be
  2920.    LIKENED to the egress control.  Nevertheless, the local control can
  2921.    achieve these only in a severely inefficient manner.  Since each node
  2922.    only knows of local information, it creates and distributes an LSP
  2923.    with incorrect attributes.  As each node learns of new downstream
  2924.    attributes, a correction is made as the attributes are propagated
  2925.    upstream again.  This can lead to a worst case of O(n-squared) setup
  2926.    messages to create a single LSP, where n is the number of nodes in a
  2927.    LSP.
  2928.  
  2929.    In the egress control, the attribute distribution is achieved during
  2930.    initial LSP setup, with a single message from the egress to
  2931.    ingresses.
  2932.  
  2933.      - TTL/Traceroute
  2934.  
  2935.        The ingress requires a proper LSP hop-count value to decrement
  2936.        TTL in packets that use a particular LSP, in environments such as
  2937.        ATM which do not have a TTL equivalent.  This simulates the TTL
  2938.        decrement which exists in an IP network, and also enables scoping
  2939.        utilities, such as traceroute, to work as they do today in IP
  2940.        networks.  In egress control, the LSP hop-count is known at the
  2941.        ingress as a by-product of the LSP setup message, since an LSP
  2942.        setup message traverses from egress to ingress, and increments
  2943.        the hop-count at each node along the path.
  2944.  
  2945.      - MTU
  2946.  
  2947.        When the MTU at the egress node is smaller than the MTU at some
  2948.        of the ingress nodes, packets originated at those ingress nodes
  2949.        will be dropped when they reach the egress node.  Hosts not using
  2950.        MTU discovery have no means to recover from this.  However,
  2951.        similar to the hop-count, the minimum LSP MTU can be propagated
  2952.        to the ingresses via egress control LSP setup messages, enabling
  2953.        the ingress to do fragmentation when required.
  2954.  
  2955.  
  2956.  
  2957.  
  2958.  
  2959.  
  2960.  
  2961. Rosen, Viswanathan & Callon                                    [Page 52]
  2962.  
  2963.  
  2964. Internet Draft        draft-ietf-mpls-arch-00.txt            August 1997
  2965.  
  2966.  
  2967.      - Implicit Peering
  2968.  
  2969.        Implicit peering is the mechanism through which higher level
  2970.        stack labels are communicated to the ingress nodes.  These label
  2971.        values are piggybacked in the LSP setup messages.  This works
  2972.        best with egress control; when the egress creates the setup
  2973.        message, it can piggyback the stack labels at the same time.
  2974.  
  2975.      - ToS/COS Based LSPs
  2976.  
  2977.        When certain LSPs require higher or lower precedence or priority
  2978.        through a network, the single egress node for that LSP can be
  2979.        configured with the required priority and this can be
  2980.        communicated in the egress control LSP setup message.  In the
  2981.        local control, each and every node in the network must be
  2982.        configured per LSP to achieve the same result.
  2983.  
  2984.    The local control initially distributes labels to its neighbors
  2985.    willy-nilly, and then waits for attributes to come through egress
  2986.    control.  Thus, local control is completely dependent on egress
  2987.    control to provide complete functional operation to LSPs. Otherwise,
  2988.    local control requires that attributes be configured through the
  2989.    entire network for each Stream.  This is the most compelling argument
  2990.    that local control is *not sufficient*; or conversely, egress control
  2991.    is necessary.  This demonstrates egress control subsumes the local
  2992.    control.  Moreover, distribution of labels without associated
  2993.    attributes may not be appropriate and may lead to undesired results.
  2994.  
  2995.    A.5 Egress Control is Sufficient
  2996.  
  2997.    The argument for sufficiency is proved by demonstrating that required
  2998.    LSPs can be created with egress control, and this is not the case
  2999.    with local control.
  3000.  
  3001.    The egress control can create an LSP for every route entry made by
  3002.    the routing protocols:
  3003.  
  3004.       1. A route can be learned from another routing domain, in which
  3005.          case the LSR at the routing domain will act as an egress for
  3006.          the route and originate an LSP setup for that route.
  3007.  
  3008.       2. A route can be a locally attached network or the LSR itself may
  3009.          be a host route.  In this case, the LSR to which such a route
  3010.          is attached originates an LSP setup message.
  3011.  
  3012.  
  3013.  
  3014.  
  3015.  
  3016.  
  3017.  
  3018. Rosen, Viswanathan & Callon                                    [Page 53]
  3019.  
  3020.  
  3021. Internet Draft        draft-ietf-mpls-arch-00.txt            August 1997
  3022.  
  3023.  
  3024.       3. An LSR with a non-MPLS next-hop behaves as an egress for all
  3025.          those route whose next-hop is the non-MPLS neighbor.
  3026.  
  3027.    These three above methods can create an LSP for each route entry in a
  3028.    network.  Moreover, policy specific LSPs, as described previously,
  3029.    can *only* be achieved with egress control.  Thus, egress control is
  3030.    necessary and sufficient for creating LSPs. QED.
  3031.  
  3032.    A.6 Discussions
  3033.  
  3034.    A.6.1 Is Local control faster than Egress control?
  3035.  
  3036.    During topology changes, such as links going down, coming up, change
  3037.    in link cost, etc, there is no difference in setup latency between
  3038.    Egress Control and Local control.  This is due to the fact that the
  3039.    node (Ru) which undergoes a change in next-hop for a Stream
  3040.    immediately requests a label assignment from the new next hop node
  3041.    (Rd).  The new next hop node then immediately supplies the label
  3042.    mapping for the requested Stream.  As explained in the Egress Control
  3043.    Method section, the node Ru may already have stored label assignments
  3044.    from the node Rd, in which case node Ru can immediately splice itself
  3045.    to the multipoint-to-point tree.  Hence, new nodes are spliced into
  3046.    existing LSPs locally.  In the scenario where a network initially
  3047.    learns of a new route, although the Local control may setup LSPs
  3048.    faster than the Egress control, this difference in latency has no
  3049.    perceived advantage.  Since routing itself may take several seconds
  3050.    to propagate and converge on the new route information, the potential
  3051.    latency of egress control is small as compared to the routing
  3052.    protocol propagation time, and the initial setup time at route
  3053.    propagation time is unimportant since these are long lived LSPs.
  3054.  
  3055.    Moreover, the hurried distribution of labels in local control may not
  3056.    carry much meaning because:
  3057.  
  3058.       4. The associated attributes are not applied or propagated to the
  3059.          ingress.
  3060.  
  3061.       5. While the ingress may believe it has an LSP, in reality the
  3062.          packets may be blackholed in the middle of the network if the
  3063.          full LSP is not established.
  3064.  
  3065.       6. Policy based LSPs, which can only be achieved via egress
  3066.          control as described above, may undo an un-used label
  3067.          assignment established by local control.
  3068.  
  3069.    A.6.2 Scalability and Robustness
  3070.  
  3071.    It has been alleged that the egress control does not have the
  3072.  
  3073.  
  3074.  
  3075. Rosen, Viswanathan & Callon                                    [Page 54]
  3076.  
  3077.  
  3078. Internet Draft        draft-ietf-mpls-arch-00.txt            August 1997
  3079.  
  3080.  
  3081.    scalability and robustness properties required by distributed
  3082.    processing.  However, the egress uses a root distribution paradigm
  3083.    commonly used by many other standard routing protocols.  For example,
  3084.    in the case of OSPF, LSAs are flooded through a domain originating at
  3085.    the "egress", where the difference being that the flooding in the
  3086.    case of OSPF is contained through a sequence number and in the Egress
  3087.    control it is contained by the next hop validation.  In the case of
  3088.    PIM (and some other multicast protocols), the distribution mechanism
  3089.    is in fact exactly similar.  Even in BGP with route reflection,
  3090.    updates originate at the root and traverse a tree structure to reach
  3091.    the peers, as opposed to a n-square mesh.  The commonality is the
  3092.    distribution paradigm, in which the distribution originates at the
  3093.    root of a tree and traverses the branches till it reaches all the
  3094.    leaves.  None of the above mentioned protocols have scalability or
  3095.    robustness problems because of the distribution paradigm.
  3096.  
  3097.    The ONLY concern expressed against to counter Egress control is that
  3098.    if the setup message does not propagate upstream from a certain node,
  3099.    then the sub-tree upstream of that node will not be added into the
  3100.    LSP.  It's a reasonable concern, but further analysis shows that it's
  3101.    not a realistic problem.  The impact of this problem compared to the
  3102.    impact of a similar problem in local control are exactly the same
  3103.    when LSRs employed in a MPLS domain have little or no forwarding
  3104.    capabilities (for example, ATM LSRs), since in both cases, packets
  3105.    are blackholed.  In fact, in the egress control the packets for
  3106.    afflicted LSPs will be dropped right at the ingress, while with local
  3107.    control the packets will be dropped at the point of breakage, causing
  3108.    packets to unnecessarily traverse part way through the network.  When
  3109.    reasonable forwarding capability exists in the MPLS domain, with the
  3110.    egress control the packets may be forwarded hop-by-hop till the point
  3111.    where the LSP setup ended.  Whereas in case of local control, the
  3112.    packets will label switched till the point of breakage and hop-by-hop
  3113.    forwarded till the LSP segment resumes.  Since egress control has
  3114.    advantages when there is no forwarding capability, and local control
  3115.    is has advantages when there is forwarding capability, there is an
  3116.    equal tradeoff between them, and thus, neither is superior or
  3117.    inferior in this regard.  This latter case is simply a loss in
  3118.    optimization, since the network has reasonable forwarding
  3119.    capabilities.  Hence the robustness issue is not a problem in either
  3120.    types of networks.  As mentioned before, the local control is
  3121.    dependent on egress control for distributing attributes.  The
  3122.    attribute distribution could then also face the same problem of
  3123.    stalled propagation, which would lead to erroneous LSP setup.  So,
  3124.    the local control can also be seen as afflicted with this problem, if
  3125.    it exists.
  3126.  
  3127.    Moreover, if stalled propagation were truly a problem, there are
  3128.    other schemes in MPLS that would face the same issue.  For example,
  3129.  
  3130.  
  3131.  
  3132. Rosen, Viswanathan & Callon                                    [Page 55]
  3133.  
  3134.  
  3135. Internet Draft        draft-ietf-mpls-arch-00.txt            August 1997
  3136.  
  3137.  
  3138.    the label distribution through PIM, Explicit Route setup, and RSVP
  3139.    would also not work, and therefore should be withdrawn :-).
  3140.  
  3141.    Note that exhaustion of label space cannot stall the propagation of
  3142.    messages to the upstream nodes.  Appropriate indications can be given
  3143.    to the upstream nodes in the setup message that no label allocation
  3144.    was made because of exhaustion of label space, so that correct action
  3145.    can be taken at the upstream nodes, and yet the LSP setup would
  3146.    continue.
  3147.  
  3148.    A.6.3 Conclusion
  3149.  
  3150.    The attempt here is not to deride the local control, but since one
  3151.    method subsumes the features and properties of the other, then why
  3152.    support both and complicate implementation, interoperability and
  3153.    maintenance?  In fact RFC1925 says, "In protocol design, perfection
  3154.    has been reached not when there is nothing left to add, but when
  3155.    there is nothing left to take away".  A usual diplomatic resolution
  3156.    for such controversy is to make accommodations for both.  We feel
  3157.    that it's a poor choice of architecture to support both.  That is why
  3158.    we feel strongly that this must be evaluated by the MPLS WG.
  3159.  
  3160.    In a way, controlling the network behavior as to which LSP are
  3161.    formed, which Streams map to which LSPs, and the associated
  3162.    attributes, can be compared to applying policies at the edges of an
  3163.    AS.  This is precisely what the egress control provides, a rich and
  3164.    varied policy control at the egress node of LSPs.
  3165.  
  3166.  
  3167.  Appendix B Why Local Control is Better
  3168.  
  3169.    This section is written by Eric Rosen.
  3170.  
  3171.    The remaining area of dispute between advocates of "local control"
  3172.    and advocates of "egress control" is relatively small.  In
  3173.    particular, there is agreement on the following points:
  3174.  
  3175.       1. If LSR R1's next hop for address prefix X is LSR R2, and R2 is
  3176.          in a different area or in a different routing domain than R1,
  3177.          then R1 may assign and distribute a label for X, even if R2 has
  3178.          not done so.
  3179.  
  3180.          This means that even under egress control, the border routers
  3181.          in one autonomous system do not have to wait, before
  3182.          distributing labels, for any downstream routers which are in
  3183.          other autonomous systems.
  3184.  
  3185.  
  3186.  
  3187.  
  3188.  
  3189. Rosen, Viswanathan & Callon                                    [Page 56]
  3190.  
  3191.  
  3192. Internet Draft        draft-ietf-mpls-arch-00.txt            August 1997
  3193.  
  3194.  
  3195.       2. If LSR R1's next hop for address prefix X is LSR R2, but R1
  3196.          receives a label mapping for X from LSR R3, then R1 may
  3197.          remember R3's mapping.  If, at some later time, R3 becomes R1's
  3198.          next hop for S, then (if R1 is not using loop prevention) R1
  3199.          may immediately begin using R3 as the LSP next hop for S, using
  3200.          the remembered mapping from R3.
  3201.  
  3202.       3. Attributes which are passed upstream from the egress may change
  3203.          over time, as a result of reconfiguration of the egress, or of
  3204.          other events.  This means that even if egress control is used,
  3205.          LSRs must be able to accept attribute changes on existing LSPs;
  3206.          attributes are not fixed when the LSP is first constructed, nor
  3207.          does a change in attributes require a new LSP to be
  3208.          constructed.
  3209.  
  3210.    The dispute is centered on the situation in which the following
  3211.    conditions hold:
  3212.  
  3213.      - LSR R1's next hop for address prefix X is within the same
  3214.        administrative domain as R1, and
  3215.  
  3216.      - R1's next hop for X has not distributed to R1 a label for X, and
  3217.  
  3218.      - R1 has not yet distributed to its neighbors any labels for X.
  3219.  
  3220.    With local control, R1 is permitted to distribute a label for X to
  3221.    its neighbors; with egress control it is not.
  3222.  
  3223.    From an implementation perspective, the difference then between
  3224.    egress control and local control is relatively small.  Egress control
  3225.    simply creates an additional state in the label distribution process,
  3226.    and prohibits label distribution in that state.
  3227.  
  3228.    From the perspective of network behavior, however, this difference is
  3229.    a bit more significant:
  3230.  
  3231.      - Egress control adds latency to the initial construction of an
  3232.        LSP, because the path must be set up serially, node by node from
  3233.        the egress.  With local control, all LSRs along the path may
  3234.        perform their setup activities in parallel.
  3235.  
  3236.      - Egress control adds additional interdependencies among nodes, as
  3237.        there is something that one node cannot do until some other node
  3238.        does something else first, which it cannot do until some other
  3239.        node does something first, etc. This is problematical for a
  3240.        number of reasons.
  3241.  
  3242.  
  3243.  
  3244.  
  3245.  
  3246. Rosen, Viswanathan & Callon                                    [Page 57]
  3247.  
  3248.  
  3249. Internet Draft        draft-ietf-mpls-arch-00.txt            August 1997
  3250.  
  3251.  
  3252.          * In robust system design, one tries to avoid such
  3253.            interdependencies, since they always bring along robustness
  3254.            and scalability problems.
  3255.  
  3256.          * In some situations, it is advantageous for a node to use
  3257.            MPLS, even if some node downstream is not functioning
  3258.            properly and hence not assigning labels as it should.
  3259.  
  3260.    These disadvantages might be tolerable if there is some significant
  3261.    problem which can be solved by egress control, but not by local
  3262.    control.  So it is worth looking to see if there is such a problem.
  3263.  
  3264.    There are a number of situations in which it may be desirable for an
  3265.    LSP Ingress node to know certain attributes of the LSP, e.g., the
  3266.    number of hops in the LSP.  It is sometimes claimed that obtaining
  3267.    such information requires the use of egress control.  However, this
  3268.    is not true.  Any attribute of an LSP is liable to change after the
  3269.    LSP exists.  Procedures to detect and communicate the change must
  3270.    exist.  These procedures CANNOT be tied to the initial construction
  3271.    of the LSP, since they must execute after the LSP has already been
  3272.    constructed.  The ability to pass control information upstream along
  3273.    a path towards an ingress node does not presuppose anything about the
  3274.    procedures used to construct the path.
  3275.  
  3276.    The fundamental issue separating the advocates of egress control from
  3277.    the advocates of local control is really a network management issue.
  3278.    To advocates of egress control, setting up an LSP for a particular
  3279.    address prefix is analogous to setting up a PVC in an ATM network.
  3280.    When setting up a PVC, one goes to one of the PVC endpoints and
  3281.    enters certain configuration information.  Similarly, one might think
  3282.    that to set up an LSP for a particular address prefix, one goes to
  3283.    the LSR which is the egress for that address prefix, and enters
  3284.    configuration information.  This allows the network administrator
  3285.    complete control of which address prefixes are assigned LSPs and
  3286.    which are not. And if this is one's management model, egress control
  3287.    does simplify the configuration issues.
  3288.  
  3289.    On the other hand, if one's model is that the LSPs get set up
  3290.    automatically by the network, as a result of the operation of the
  3291.    routing algorithm, then egress control is of no utility at all.  When
  3292.    one hears the claim that "egress control allow you to control your
  3293.    network from a few nodes", what is really being claimed is "egress
  3294.    control simplifies the job of manually configuring all the LSPs in
  3295.    your network".  Of course, if you don't intend to manually configure
  3296.    all the LSPs in your network, this is irrelevant.
  3297.  
  3298.    So before an egress control scheme is adopted, one should ask whether
  3299.    complete manual configuration of the set of address prefixes which
  3300.  
  3301.  
  3302.  
  3303. Rosen, Viswanathan & Callon                                    [Page 58]
  3304.  
  3305.  
  3306. Internet Draft        draft-ietf-mpls-arch-00.txt            August 1997
  3307.  
  3308.  
  3309.    get assigned LSPs is necessary.  That is, is this capability needed
  3310.    to solve a real problem?
  3311.  
  3312.    It is sometimes claimed that egress control is needed if one wants to
  3313.    conserve labels by assigning a single label to all address prefixes
  3314.    which have the same egress.  This is not true.  If the network is
  3315.    running a link state routing algorithm, each LSR already knows which
  3316.    address prefixes have a common egress, and hence can assign a common
  3317.    label.  If the network is running a distance vector routing protocol,
  3318.    information about which address prefixes have a common egress can be
  3319.    made to "bubble up" from the egress, using LDP, even if local control
  3320.    is used.
  3321.  
  3322.    It is only in the case where the number of available labels is so
  3323.    small that their use must be manually administered that egress
  3324.    control has an advantage.  It may be arguable that egress control
  3325.    should be an option that can be used for the special cases in which
  3326.    it provides value.  In most cases, there is no reason to have it at
  3327.    all.
  3328.  
  3329.  
  3330.  
  3331.  
  3332.  
  3333.  
  3334.  
  3335.  
  3336.  
  3337.  
  3338.  
  3339.  
  3340.  
  3341.  
  3342.  
  3343.  
  3344.  
  3345.  
  3346.  
  3347.  
  3348.  
  3349.  
  3350.  
  3351.  
  3352.  
  3353.  
  3354.  
  3355.  
  3356.  
  3357.  
  3358.  
  3359.  
  3360. Rosen, Viswanathan & Callon                                    [Page 59]
  3361.  
  3362.