home *** CD-ROM | disk | FTP | other *** search
/ Internet Core Protocols / Oreilly-InternetCoreProtocols.iso / RFCs / rfc2382.txt < prev    next >
Encoding:
Text File  |  1999-10-14  |  73.8 KB  |  1,684 lines

  1.  
  2.  
  3.  
  4.  
  5.  
  6.  
  7. Network Working Group                                 E. Crawley, Editor
  8. Request for Comments: 2382                                Argon Networks
  9. Category: Informational                                        L. Berger
  10.                                                             Fore Systems
  11.                                                                S. Berson
  12.                                                                     ISI
  13.                                                                 F. Baker
  14.                                                            Cisco Systems
  15.                                                                M. Borden
  16.                                                             Bay Networks
  17.                                                              J. Krawczyk
  18.                                                ArrowPoint Communications
  19.                                                              August 1998
  20.  
  21.  
  22.          A Framework for Integrated Services and RSVP over ATM
  23.  
  24. Status of this Memo
  25.  
  26.    This memo provides information for the Internet community.  It does
  27.    not specify an Internet standard of any kind.  Distribution of this
  28.    memo is unlimited.
  29.  
  30. Copyright Notice
  31.  
  32.    Copyright (C) The Internet Society (1998).  All Rights Reserved.
  33.  
  34. Abstract
  35.  
  36.    This document outlines the issues and framework related to providing
  37.    IP Integrated Services with RSVP over ATM. It provides an overall
  38.    approach to the problem(s) and related issues.  These issues and
  39.    problems are to be addressed in further documents from the ISATM
  40.    subgroup of the ISSLL working group.
  41.  
  42. 1. Introduction
  43.  
  44.    The Internet currently has one class of service normally referred to
  45.    as "best effort."  This service is typified by first-come, first-
  46.    serve scheduling at each hop in the network.  Best effort service has
  47.    worked well for electronic mail, World Wide Web (WWW) access, file
  48.    transfer (e.g. ftp), etc.  For real-time traffic such as voice and
  49.    video, the current Internet has performed well only across unloaded
  50.    portions of the network.  In order to provide quality real-time
  51.    traffic, new classes of service and a QoS signalling protocol are
  52.  
  53.  
  54.  
  55.  
  56.  
  57.  
  58. Crawley, et. al.             Informational                      [Page 1]
  59.  
  60. RFC 2382         Integrated Services and RSVP over ATM       August 1998
  61.  
  62.  
  63.    being introduced in the Internet [1,6,7], while retaining the
  64.    existing best effort service.  The QoS signalling protocol is RSVP
  65.    [1], the Resource ReSerVation Protocol and the service models
  66.  
  67.    One of the important features of ATM technology is the ability to
  68.    request a point-to-point Virtual Circuit (VC) with a specified
  69.    Quality of Service (QoS).  An additional feature of ATM technology is
  70.    the ability to request point-to-multipoint VCs with a specified QoS.
  71.    Point-to-multipoint VCs allows leaf nodes to be added and removed
  72.    from the VC dynamically and so provides a mechanism for supporting IP
  73.    multicast. It is only natural that RSVP and the Internet Integrated
  74.    Services (IIS) model would like to utilize the QoS properties of any
  75.    underlying link layer including ATM, and this memo concentrates on
  76.    ATM.
  77.  
  78.    Classical IP over ATM [10] has solved part of this problem,
  79.    supporting IP unicast best effort traffic over ATM.  Classical IP
  80.    over ATM is based on a Logical IP Subnetwork (LIS), which is a
  81.    separately administered IP subnetwork.  Hosts within an LIS
  82.    communicate using the ATM network, while hosts from different subnets
  83.    communicate only by going through an IP router (even though it may be
  84.    possible to open a direct VC between the two hosts over the ATM
  85.    network).  Classical IP over ATM provides an Address Resolution
  86.    Protocol (ATMARP) for ATM edge devices to resolve IP addresses to
  87.    native ATM addresses.  For any pair of IP/ATM edge devices (i.e.
  88.    hosts or routers), a single VC is created on demand and shared for
  89.    all traffic between the two devices.  A second part of the RSVP and
  90.    IIS over ATM problem, IP multicast, is being solved with MARS [5],
  91.    the Multicast Address Resolution Server.
  92.  
  93.    MARS compliments ATMARP by allowing an IP address to resolve into a
  94.    list of native ATM addresses, rather than just a single address.
  95.  
  96.    The ATM Forum's LAN Emulation (LANE) [17, 20] and Multiprotocol Over
  97.    ATM (MPOA) [18] also address the support of IP best effort traffic
  98.    over ATM through similar means.
  99.  
  100.    A key remaining issue for IP in an ATM environment is the integration
  101.    of RSVP signalling and ATM signalling in support of the Internet
  102.    Integrated Services (IIS) model.  There are two main areas involved
  103.    in supporting the IIS model, QoS translation and VC management. QoS
  104.    translation concerns mapping a QoS from the IIS model to a proper ATM
  105.    QoS, while VC management concentrates on how many VCs are needed and
  106.    which traffic flows are routed over which VCs.
  107.  
  108.  
  109.  
  110.  
  111.  
  112.  
  113.  
  114. Crawley, et. al.             Informational                      [Page 2]
  115.  
  116. RFC 2382         Integrated Services and RSVP over ATM       August 1998
  117.  
  118.  
  119. 1.1 Structure and Related Documents
  120.  
  121.    This document provides a guide to the issues for IIS over ATM.  It is
  122.    intended to frame the problems that are to be addressed in further
  123.    documents. In this document, the modes and models for RSVP operation
  124.    over ATM will be discussed followed by a discussion of management of
  125.    ATM VCs for RSVP data and control. Lastly, the topic of
  126.    encapsulations will be discussed in relation to the models presented.
  127.  
  128.    This document is part of a group of documents from the ISATM subgroup
  129.    of the ISSLL working group related to the operation of IntServ and
  130.    RSVP over ATM.  [14] discusses the mapping of the IntServ models for
  131.    Controlled Load and Guaranteed Service to ATM.  [15 and 16] discuss
  132.    detailed implementation requirements and guidelines for RSVP over
  133.    ATM, respectively.  While these documents may not address all the
  134.    issues raised in this document, they should provide enough
  135.    information for development of solutions for IntServ and RSVP over
  136.    ATM.
  137.  
  138. 1.2 Terms
  139.  
  140.    Several term used in this document are used in many contexts, often
  141.    with different meaning.  These terms are used in this document with
  142.    the following meaning:
  143.  
  144.    - Sender is used in this document to mean the ingress point to the
  145.      ATM network or "cloud".
  146.    - Receiver is used in this document to refer to the egress point from
  147.      the ATM network or "cloud".
  148.    - Reservation is used in this document to refer to an RSVP initiated
  149.      request for resources. RSVP initiates requests for resources based
  150.      on RESV message processing. RESV messages that simply refresh state
  151.      do not trigger resource requests.  Resource requests may be made
  152.      based on RSVP sessions and RSVP reservation styles.  RSVP styles
  153.      dictate whether the reserved resources are used by one sender or
  154.      shared by multiple senders. See [1] for details of each. Each new
  155.      request is referred to in this document as an RSVP reservation, or
  156.      simply reservation.
  157.    - Flow is used to refer to the data traffic associated with a
  158.      particular reservation.  The specific meaning of flow is RSVP style
  159.      dependent. For shared style reservations, there is one flow per
  160.      session. For distinct style reservations, there is one flow per
  161.      sender (per session).
  162.  
  163. 2. Issues Regarding the Operation of RSVP and IntServ over ATM
  164.  
  165.    The issues related to RSVP and IntServ over ATM fall into several
  166.    general classes:
  167.  
  168.  
  169.  
  170. Crawley, et. al.             Informational                      [Page 3]
  171.  
  172. RFC 2382         Integrated Services and RSVP over ATM       August 1998
  173.  
  174.  
  175.    - How to make RSVP run over ATM now and in the future
  176.    - When to set up a virtual circuit (VC) for a specific Quality of
  177.      Service (QoS) related to RSVP
  178.    - How to map the IntServ models to ATM QoS models
  179.    - How to know that an ATM network is providing the QoS necessary for
  180.      a flow
  181.    - How to handle the many-to-many connectionless features of IP
  182.      multicast and RSVP in the one-to-many connection-oriented world of
  183.      ATM
  184.  
  185. 2.1 Modes/Models for RSVP and IntServ over ATM
  186.  
  187.    [3] Discusses several different models for running IP over ATM
  188.    networks.  [17, 18, and 20] also provide models for IP in ATM
  189.    environments.  Any one of these models would work as long as the RSVP
  190.    control packets (IP protocol 46) and data packets can follow the same
  191.    IP path through the network.  It is important that the RSVP PATH
  192.    messages follow the same IP path as the data such that appropriate
  193.    PATH state may be installed in the routers along the path.  For an
  194.    ATM subnetwork, this means the ingress and egress points must be the
  195.    same in both directions for the RSVP control and data messages.  Note
  196.    that the RSVP protocol does not require symmetric routing.  The PATH
  197.    state installed by RSVP allows the RESV messages to "retrace" the
  198.    hops that the PATH message crossed.  Within each of the models for IP
  199.    over ATM, there are decisions about using different types of data
  200.    distribution in ATM as well as different connection initiation.  The
  201.    following sections look at some of the different ways QoS connections
  202.    can be set up for RSVP.
  203.  
  204. 2.1.1 UNI 3.x and 4.0
  205.  
  206.    In the User Network Interface (UNI) 3.0 and 3.1 specifications [8,9]
  207.    and 4.0 specification, both permanent and switched virtual circuits
  208.    (PVC and SVC) may be established with a specified service category
  209.    (CBR, VBR, and UBR for UNI 3.x and VBR-rt and ABR for 4.0) and
  210.    specific traffic descriptors in point-to-point and point-to-
  211.    multipoint configurations.  Additional QoS parameters are not
  212.    available in UNI 3.x and those that are available are vendor-
  213.    specific.  Consequently, the level of QoS control available in
  214.    standard UNI 3.x networks is somewhat limited.  However, using these
  215.    building blocks, it is possible to use RSVP and the IntServ models.
  216.    ATM 4.0 with the Traffic Management (TM) 4.0 specification [21]
  217.    allows much greater control of QoS.  [14] provides the details of
  218.    mapping the IntServ models to UNI 3.x and 4.0 service categories and
  219.    traffic parameters.
  220.  
  221.  
  222.  
  223.  
  224.  
  225.  
  226. Crawley, et. al.             Informational                      [Page 4]
  227.  
  228. RFC 2382         Integrated Services and RSVP over ATM       August 1998
  229.  
  230.  
  231. 2.1.1.1 Permanent Virtual Circuits (PVCs)
  232.  
  233.    PVCs emulate dedicated point-to-point lines in a network, so the
  234.    operation of RSVP can be identical to the operation over any point-
  235.    to-point network.  The QoS of the PVC must be consistent and
  236.    equivalent to the type of traffic and service model used.  The
  237.    devices on either end of the PVC have to provide traffic control
  238.    services in order to multiplex multiple flows over the same PVC.
  239.    With PVCs, there is no issue of when or how long it takes to set up
  240.    VCs, since they are made in advance but the resources of the PVC are
  241.    limited to what has been pre-allocated.  PVCs that are not fully
  242.    utilized can tie up ATM network resources that could be used for
  243.    SVCs.
  244.  
  245.    An additional issue for using PVCs is one of network engineering.
  246.    Frequently, multiple PVCs are set up such that if all the PVCs were
  247.    running at full capacity, the link would be over-subscribed.  This
  248.    frequently used "statistical multiplexing gain" makes providing IIS
  249.    over PVCs very difficult and unreliable.  Any application of IIS over
  250.    PVCs has to be assured that the PVCs are able to receive all the
  251.    requested QoS.
  252.  
  253. 2.1.1.2 Switched Virtual Circuits (SVCs)
  254.  
  255.    SVCs allow paths in the ATM network to be set up "on demand".  This
  256.    allows flexibility in the use of RSVP over ATM along with some
  257.    complexity.  Parallel VCs can be set up to allow best-effort and
  258.    better service class paths through the network, as shown in Figure 1.
  259.    The cost and time to set up SVCs can impact their use.  For example,
  260.    it may be better to initially route QoS traffic over existing VCs
  261.    until a SVC with the desired QoS can be set up for the flow.  Scaling
  262.    issues can come into play if a single RSVP flow is used per VC, as
  263.    will be discussed in Section 4.3.1.1. The number of VCs in any ATM
  264.    device may also be limited so the number of RSVP flows that can be
  265.    supported by a device can be strictly limited to the number of VCs
  266.    available, if we assume one flow per VC.  Section 4 discusses the
  267.    topic of VC management for RSVP in greater detail.
  268.  
  269.  
  270.  
  271.  
  272.  
  273.  
  274.  
  275.  
  276.  
  277.  
  278.  
  279.  
  280.  
  281.  
  282. Crawley, et. al.             Informational                      [Page 5]
  283.  
  284. RFC 2382         Integrated Services and RSVP over ATM       August 1998
  285.  
  286.  
  287.                              Data Flow ==========>
  288.  
  289.                      +-----+
  290.                      |     |      -------------->  +----+
  291.                      | Src |    -------------->    | R1 |
  292.                      |    *|  -------------->      +----+
  293.                      +-----+       QoS VCs
  294.                           /\
  295.                           ||
  296.                       VC  ||
  297.                       Initiator
  298.  
  299.                     Figure 1: Data Flow VC Initiation
  300.  
  301.    While RSVP is receiver oriented, ATM is sender oriented.  This might
  302.    seem like a problem but the sender or ingress point receives RSVP
  303.    RESV messages and can determine whether a new VC has to be set up to
  304.    the destination or egress point.
  305.  
  306. 2.1.1.3 Point to MultiPoint
  307.  
  308.    In order to provide QoS for IP multicast, an important feature of
  309.    RSVP, data flows must be distributed to multiple destinations from a
  310.    given source.  Point-to-multipoint VCs provide such a mechanism.  It
  311.    is important to map the actions of IP multicasting and RSVP (e.g.
  312.    IGMP JOIN/LEAVE and RSVP RESV/RESV TEAR) to add party and drop party
  313.    functions for ATM.  Point-to-multipoint VCs as defined in UNI 3.x and
  314.    UNI 4.0 have a single service class for all destinations.  This is
  315.    contrary to the RSVP "heterogeneous receiver" concept.  It is
  316.    possible to set up a different VC to each receiver requesting a
  317.    different QoS, as shown in Figure 2. This again can run into scaling
  318.    and resource problems when managing multiple VCs on the same
  319.    interface to different destinations.
  320.  
  321.  
  322.  
  323.  
  324.  
  325.  
  326.  
  327.  
  328.  
  329.  
  330.  
  331.  
  332.  
  333.  
  334.  
  335.  
  336.  
  337.  
  338. Crawley, et. al.             Informational                      [Page 6]
  339.  
  340. RFC 2382         Integrated Services and RSVP over ATM       August 1998
  341.  
  342.  
  343.                                     +----+
  344.                            +------> | R1 |
  345.                            |        +----+
  346.                            |
  347.                            |        +----+
  348.               +-----+ -----+   +--> | R2 |
  349.               |     | ---------+    +----+  Receiver Request Types:
  350.               | Src |                       ---->  QoS 1 and QoS 2
  351.               |     | .........+    +----+  ....>  Best-Effort
  352.               +-----+ .....+   +..> | R3 |
  353.                            :        +----+
  354.                        /\  :
  355.                        ||  :        +----+
  356.                        ||  +......> | R4 |
  357.                        ||           +----+
  358.                      Single
  359.                   IP Multicast
  360.                      Group
  361.  
  362.                     Figure 2: Types of Multicast Receivers
  363.  
  364.    RSVP sends messages both up and down the multicast distribution tree.
  365.    In the case of a large ATM cloud, this could result in a RSVP message
  366.    implosion at an ATM ingress point with many receivers.
  367.  
  368.    ATM 4.0 expands on the point-to-multipoint VCs by adding a Leaf
  369.    Initiated Join (LIJ) capability. LIJ allows an ATM end point to join
  370.    into an existing point-to-multipoint VC without necessarily
  371.    contacting the source of the VC.  This can reduce the burden on the
  372.    ATM source point for setting up new branches and more closely matches
  373.    the receiver-based model of RSVP and IP multicast.  However, many of
  374.    the same scaling issues exist and the new branches added to a point-
  375.    to-multipoint VC must use the same QoS as existing branches.
  376.  
  377. 2.1.1.4 Multicast Servers
  378.  
  379.    IP-over-ATM has the concept of a multicast server or reflector that
  380.    can accept cells from multiple senders and send them via a point-to-
  381.    multipoint VC to a set of receivers.  This moves the VC scaling
  382.    issues noted previously for point-to-multipoint VCs to the multicast
  383.    server.  Additionally, the multicast server will need to know how to
  384.    interpret RSVP packets or receive instruction from another node so it
  385.    will be able to provide VCs of the appropriate QoS for the RSVP
  386.    flows.
  387.  
  388.  
  389.  
  390.  
  391.  
  392.  
  393.  
  394. Crawley, et. al.             Informational                      [Page 7]
  395.  
  396. RFC 2382         Integrated Services and RSVP over ATM       August 1998
  397.  
  398.  
  399. 2.1.2 Hop-by-Hop vs. Short Cut
  400.  
  401.    If the ATM "cloud" is made up a number of logical IP subnets (LISs),
  402.    then it is possible to use "short cuts" from a node on one LIS
  403.    directly to a node on another LIS, avoiding router hops between the
  404.    LISs. NHRP [4], is one mechanism for determining the ATM address of
  405.    the egress point on the ATM network given a destination IP address.
  406.    It is a topic for further study to determine if significant benefit
  407.    is achieved from short cut routes vs. the extra state required.
  408.  
  409. 2.1.3 Future Models
  410.  
  411.    ATM is constantly evolving.  If we assume that RSVP and IntServ
  412.    applications are going to be wide-spread, it makes sense to consider
  413.    changes to ATM that would improve the operation of RSVP and IntServ
  414.    over ATM.  Similarly, the RSVP protocol and IntServ models will
  415.    continue to evolve and changes that affect them should also be
  416.    considered.  The following are a few ideas that have been discussed
  417.    that would make the integration of the IntServ models and RSVP easier
  418.    or more complete.  They are presented here to encourage continued
  419.    development and discussion of ideas that can help aid in the
  420.    integration of RSVP, IntServ, and ATM.
  421.  
  422. 2.1.3.1 Heterogeneous Point-to-MultiPoint
  423.  
  424.    The IntServ models and RSVP support the idea of "heterogeneous
  425.    receivers"; e.g., not all receivers of a particular multicast flow
  426.    are required to ask for the same QoS from the network, as shown in
  427.    Figure 2.
  428.  
  429.    The most important scenario that can utilize this feature occurs when
  430.    some receivers in an RSVP session ask for a specific QoS while others
  431.    receive the flow with a best-effort service.  In some cases where
  432.    there are multiple senders on a shared-reservation flow (e.g., an
  433.    audio conference), an individual receiver only needs to reserve
  434.    enough resources to receive one sender at a time.  However, other
  435.    receivers may elect to reserve more resources, perhaps to allow for
  436.    some amount of "over-speaking" or in order to record the conference
  437.    (post processing during playback can separate the senders by their
  438.    source addresses).
  439.  
  440.    In order to prevent denial-of-service attacks via reservations, the
  441.    service models do not allow the service elements to simply drop non-
  442.    conforming packets.  For example, Controlled Load service model [7]
  443.    assigns non-conformant packets to best-effort status (which may
  444.    result in packet drops if there is congestion).
  445.  
  446.  
  447.  
  448.  
  449.  
  450. Crawley, et. al.             Informational                      [Page 8]
  451.  
  452. RFC 2382         Integrated Services and RSVP over ATM       August 1998
  453.  
  454.  
  455.    Emulating these behaviors over an ATM network is problematic and
  456.    needs to be studied.  If a single maximum QoS is used over a point-
  457.    to-multipoint VC, resources could be wasted if cells are sent over
  458.    certain links where the reassembled packets will eventually be
  459.    dropped.  In addition, the "maximum QoS" may actually cause a
  460.    degradation in service to the best-effort branches.
  461.  
  462.    The term "variegated VC" has been coined to describe a point-to-
  463.    multipoint VC that allows a different QoS on each branch.  This
  464.    approach seems to match the spirit of the Integrated Service and RSVP
  465.    models, but some thought has to be put into the cell drop strategy
  466.    when traversing from a "bigger" branch to a "smaller" one.  The
  467.    "best-effort for non-conforming packets" behavior must also be
  468.    retained.  Early Packet Discard (EPD) schemes must be used so that
  469.    all the cells for a given packet can be discarded at the same time
  470.    rather than discarding only a few cells from several packets making
  471.    all the packets useless to the receivers.
  472.  
  473. 2.1.3.2 Lightweight Signalling
  474.  
  475.    Q.2931 signalling is very complete and carries with it a significant
  476.    burden for signalling in all possible public and private connections.
  477.    It might be worth investigating a lighter weight signalling mechanism
  478.    for faster connection setup in private networks.
  479.  
  480. 2.1.3.3 QoS Renegotiation
  481.  
  482.    Another change that would help RSVP over ATM is the ability to
  483.    request a different QoS for an active VC.  This would eliminate the
  484.    need to setup and tear down VCs as the QoS changed.  RSVP allows
  485.    receivers to change their reservations and senders to change their
  486.    traffic descriptors dynamically.  This, along with the merging of
  487.    reservations, can create a situation where the QoS needs of a VC can
  488.    change.  Allowing changes to the QoS of an existing VC would allow
  489.    these features to work without creating a new VC.  In the ITU-T ATM
  490.    specifications [24,25], some cell rates can be renegotiated or
  491.    changed.  Specifically, the Peak Cell Rate (PCR) of an existing VC
  492.    can be changed and, in some cases, QoS parameters may be renegotiated
  493.    during the call setup phase. It is unclear if this is sufficient for
  494.    the QoS renegotiation needs of the IntServ models.
  495.  
  496. 2.1.3.4 Group Addressing
  497.  
  498.    The model of one-to-many communications provided by point-to-
  499.    multipoint VCs does not really match the many-to-many communications
  500.    provided by IP multicasting.  A scaleable mapping from IP multicast
  501.    addresses to an ATM "group address" can address this problem.
  502.  
  503.  
  504.  
  505.  
  506. Crawley, et. al.             Informational                      [Page 9]
  507.  
  508. RFC 2382         Integrated Services and RSVP over ATM       August 1998
  509.  
  510.  
  511. 2.1.3.5 Label Switching
  512.  
  513.    The MultiProtocol Label Switching (MPLS) working group is discussing
  514.    methods for optimizing the use of ATM and other switched networks for
  515.    IP by encapsulating the data with a header that is used by the
  516.    interior switches to achieve faster forwarding lookups.  [22]
  517.    discusses a framework for this work.  It is unclear how this work
  518.    will affect IntServ and RSVP over label switched networks but there
  519.    may be some interactions.
  520.  
  521. 2.1.4 QoS Routing
  522.  
  523.    RSVP is explicitly not a routing protocol.  However, since it conveys
  524.    QoS information, it may prove to be a valuable input to a routing
  525.    protocol that can make path determinations based on QoS and network
  526.    load information.  In other words, instead of asking for just the IP
  527.    next hop for a given destination address, it might be worthwhile for
  528.    RSVP to provide information on the QoS needs of the flow if routing
  529.    has the ability to use this information in order to determine a
  530.    route.  Other forms of QoS routing have existed in the past such as
  531.    using the IP TOS and Precedence bits to select a path through the
  532.    network.  Some have discussed using these same bits to select one of
  533.    a set of parallel ATM VCs as a form of QoS routing.  ATM routing has
  534.    also considered the problem of QoS routing through the Private
  535.    Network-to-Network Interface (PNNI) [26] routing protocol for routing
  536.    ATM VCs on a path that can support their needs.  The work in this
  537.    area is just starting and there are numerous issues to consider.
  538.    [23], as part of the work of the QoSR working group frame the issues
  539.    for QoS Routing in the Internet.
  540.  
  541. 2.2 Reliance on Unicast and Multicast Routing
  542.  
  543.    RSVP was designed to support both unicast and IP multicast
  544.    applications.  This means that RSVP needs to work closely with
  545.    multicast and unicast routing.  Unicast routing over ATM has been
  546.    addressed [10] and [11].  MARS [5] provides multicast address
  547.    resolution for IP over ATM networks, an important part of the
  548.    solution for multicast but still relies on multicast routing
  549.    protocols to connect multicast senders and receivers on different
  550.    subnets.
  551.  
  552. 2.3 Aggregation of Flows
  553.  
  554.    Some of the scaling issues noted in previous sections can be
  555.    addressed by aggregating several RSVP flows over a single VC if the
  556.    destinations of the VC match for all the flows being aggregated.
  557.    However, this causes considerable complexity in the management of VCs
  558.    and in the scheduling of packets within each VC at the root point of
  559.  
  560.  
  561.  
  562. Crawley, et. al.             Informational                     [Page 10]
  563.  
  564. RFC 2382         Integrated Services and RSVP over ATM       August 1998
  565.  
  566.  
  567.    the VC.  Note that the rescheduling of flows within a VC is not
  568.    possible in the switches in the core of the ATM network. Virtual
  569.    Paths (VPs) can be used for aggregating multiple VCs. This topic is
  570.    discussed in greater detail as it applies to multicast data
  571.    distribution in section 4.2.3.4
  572.  
  573. 2.4 Mapping QoS Parameters
  574.  
  575.    The mapping of QoS parameters from the IntServ models to the ATM
  576.    service classes is an important issue in making RSVP and IntServ work
  577.    over ATM.  [14] addresses these issues very completely for the
  578.    Controlled Load and Guaranteed Service models.  An additional issue
  579.    is that while some guidelines can be developed for mapping the
  580.    parameters of a given service model to the traffic descriptors of an
  581.    ATM traffic class, implementation variables, policy, and cost factors
  582.    can make strict mapping problematic.  So, a set of workable mappings
  583.    that can be applied to different network requirements and scenarios
  584.    is needed as long as the mappings can satisfy the needs of the
  585.    service model(s).
  586.  
  587. 2.5 Directly Connected ATM Hosts
  588.  
  589.    It is obvious that the needs of hosts that are directly connected to
  590.    ATM networks must be considered for RSVP and IntServ over ATM.
  591.    Functionality for RSVP over ATM must not assume that an ATM host has
  592.    all the functionality of a router, but such things as MARS and NHRP
  593.    clients would be worthwhile features.  A host must manage VCs just
  594.    like any other ATM sender or receiver as described later in section
  595.    4.
  596.  
  597. 2.6 Accounting and Policy Issues
  598.  
  599.    Since RSVP and IntServ create classes of preferential service, some
  600.    form of administrative control and/or cost allocation is needed to
  601.    control access.  There are certain types of policies specific to ATM
  602.    and IP over ATM that need to be studied to determine how they
  603.    interoperate with the IP and IntServ policies being developed.
  604.    Typical IP policies would be that only certain users are allowed to
  605.    make reservations.  This policy would translate well to IP over ATM
  606.    due to the similarity to the mechanisms used for Call Admission
  607.    Control (CAC).
  608.  
  609.    There may be a need for policies specific to IP over ATM.  For
  610.    example, since signalling costs in ATM are high relative to IP, an IP
  611.    over ATM specific policy might restrict the ability to change the
  612.    prevailing QoS in a VC.  If VCs are relatively scarce, there also
  613.    might be specific accounting costs in creating a new VC.  The work so
  614.    far has been preliminary, and much work remains to be done.  The
  615.  
  616.  
  617.  
  618. Crawley, et. al.             Informational                     [Page 11]
  619.  
  620. RFC 2382         Integrated Services and RSVP over ATM       August 1998
  621.  
  622.  
  623.    policy mechanisms outlined in [12] and [13] provide the basic
  624.    mechanisms for implementing policies for RSVP and IntServ over any
  625.    media, not just ATM.
  626.  
  627. 3. Framework for IntServ and RSVP over ATM
  628.  
  629.    Now that we have defined some of the issues for IntServ and RSVP over
  630.    ATM, we can formulate a framework for solutions.  The problem breaks
  631.    down to two very distinct areas; the mapping of IntServ models to ATM
  632.    service categories and QoS parameters and the operation of RSVP over
  633.    ATM.
  634.  
  635.    Mapping IntServ models to ATM service categories and QoS parameters
  636.    is a matter of determining which categories can support the goals of
  637.    the service models and matching up the parameters and variables
  638.    between the IntServ description and the ATM description(s).  Since
  639.    ATM has such a wide variety of service categories and parameters,
  640.    more than one ATM service category should be able to support each of
  641.    the two IntServ models.  This will provide a good bit of flexibility
  642.    in configuration and deployment.  [14] examines this topic
  643.    completely.
  644.  
  645.    The operation of RSVP over ATM requires careful management of VCs in
  646.    order to match the dynamics of the RSVP protocol.  VCs need to be
  647.    managed for both the RSVP QoS data and the RSVP signalling messages.
  648.    The remainder of this document will discuss several approaches to
  649.    managing VCs for RSVP and [15] and [16] discuss their application for
  650.    implementations in term of interoperability requirement and
  651.    implementation guidelines.
  652.  
  653. 4. RSVP VC Management
  654.  
  655.    This section provides more detail on the issues related to the
  656.    management of SVCs for RSVP and IntServ.
  657.  
  658. 4.1 VC Initiation
  659.  
  660.    As discussed in section 2.1.1.2, there is an apparent mismatch
  661.    between RSVP and ATM. Specifically, RSVP control is receiver oriented
  662.    and ATM control is sender oriented.  This initially may seem like a
  663.    major issue, but really is not.  While RSVP reservation (RESV)
  664.    requests are generated at the receiver, actual allocation of
  665.    resources takes place at the subnet sender. For data flows, this
  666.    means that subnet senders will establish all QoS VCs and the subnet
  667.    receiver must be able to accept incoming QoS VCs, as illustrated in
  668.    Figure 1.  These restrictions are consistent with RSVP version 1
  669.    processing rules and allow senders to use different flow to VC
  670.    mappings and even different QoS renegotiation techniques without
  671.  
  672.  
  673.  
  674. Crawley, et. al.             Informational                     [Page 12]
  675.  
  676. RFC 2382         Integrated Services and RSVP over ATM       August 1998
  677.  
  678.  
  679.    interoperability problems.
  680.  
  681.    The use of the reverse path provided by point-to-point VCs by
  682.    receivers is for further study. There are two related issues. The
  683.    first is that use of the reverse path requires the VC initiator to
  684.    set appropriate reverse path QoS parameters. The second issue is that
  685.    reverse paths are not available with point-to-multipoint VCs, so
  686.    reverse paths could only be used to support unicast RSVP
  687.    reservations.
  688.  
  689. 4.2 Data VC Management
  690.  
  691.    Any RSVP over ATM implementation must map RSVP and RSVP associated
  692.    data flows to ATM Virtual Circuits (VCs). LAN Emulation [17],
  693.    Classical IP [10] and, more recently, NHRP [4] discuss mapping IP
  694.    traffic onto ATM SVCs, but they only cover a single QoS class, i.e.,
  695.    best effort traffic. When QoS is introduced, VC mapping must be
  696.    revisited. For RSVP controlled QoS flows, one issue is VCs to use for
  697.    QoS data flows.
  698.  
  699.    In the Classic IP over ATM and current NHRP models, a single point-
  700.    to-point VC is used for all traffic between two ATM attached hosts
  701.    (routers and end-stations).  It is likely that such a single VC will
  702.    not be adequate or optimal when supporting data flows with multiple
  703.    .bp QoS types. RSVP's basic purpose is to install support for flows
  704.    with multiple QoS types, so it is essential for any RSVP over ATM
  705.    solution to address VC usage for QoS data flows, as shown in Figure
  706.    1.
  707.  
  708.    RSVP reservation styles must also be taken into account in any VC
  709.    usage strategy.
  710.  
  711.    This section describes issues and methods for management of VCs
  712.    associated with QoS data flows. When establishing and maintaining
  713.    VCs, the subnet sender will need to deal with several complicating
  714.    factors including multiple QoS reservations, requests for QoS
  715.    changes, ATM short-cuts, and several multicast specific issues. The
  716.    multicast specific issues result from the nature of ATM connections.
  717.    The key multicast related issues are heterogeneity, data
  718.    distribution, receiver transitions, and end-point identification.
  719.  
  720. 4.2.1 Reservation to VC Mapping
  721.  
  722.    There are various approaches available for mapping reservations on to
  723.    VCs.  A distinguishing attribute of all approaches is how
  724.    reservations are combined on to individual VCs.  When mapping
  725.    reservations on to VCs, individual VCs can be used to support a
  726.    single reservation, or reservation can be combined with others on to
  727.  
  728.  
  729.  
  730. Crawley, et. al.             Informational                     [Page 13]
  731.  
  732. RFC 2382         Integrated Services and RSVP over ATM       August 1998
  733.  
  734.  
  735.    "aggregate" VCs.  In the first case, each reservation will be
  736.    supported by one or more VCs.  Multicast reservation requests may
  737.    translate into the setup of multiple VCs as is described in more
  738.    detail in section 4.2.2.  Unicast reservation requests will always
  739.    translate into the setup of a single QoS VC.  In both cases, each VC
  740.    will only carry data associated with a single reservation.  The
  741.    greatest benefit if this approach is ease of implementation, but it
  742.    comes at the cost of increased (VC) setup time and the consumption of
  743.    greater number of VC and associated resources.
  744.  
  745.    When multiple reservations are combined onto a single VC, it is
  746.    referred to as the "aggregation" model. With this model, large VCs
  747.    could be set up between IP routers and hosts in an ATM network. These
  748.    VCs could be managed much like IP Integrated Service (IIS) point-to-
  749.    point links (e.g. T-1, DS-3) are managed now.  Traffic from multiple
  750.    sources over multiple RSVP sessions might be multiplexed on the same
  751.    VC.  This approach has a number of advantages. First, there is
  752.    typically no signalling latency as VCs would be in existence when the
  753.    traffic started flowing, so no time is wasted in setting up VCs.
  754.    Second, the heterogeneity problem (section 4.2.2) in full over ATM
  755.    has been reduced to a solved problem. Finally, the dynamic QoS
  756.    problem (section 4.2.7) for ATM has also been reduced to a solved
  757.    problem.
  758.  
  759.    The aggregation model can be used with point-to-point and point-to-
  760.    multipoint VCs.  The problem with the aggregation model is that the
  761.    choice of what QoS to use for the VCs may be difficult, without
  762.    knowledge of the likely reservation types and sizes but is made
  763.    easier since the VCs can be changed as needed.
  764.  
  765. 4.2.2 Unicast Data VC Management
  766.  
  767.    Unicast data VC management is much simpler than multicast data VC
  768.    management but there are still some similar issues.  If one considers
  769.    unicast to be a devolved case of multicast, then implementing the
  770.    multicast solutions will cover unicast.  However, some may want to
  771.    consider unicast-only implementations.  In these situations, the
  772.    choice of using a single flow per VC or aggregation of flows onto a
  773.    single VC remains but the problem of heterogeneity discussed in the
  774.    following section is removed.
  775.  
  776. 4.2.3 Multicast Heterogeneity
  777.  
  778.    As mentioned in section 2.1.3.1 and shown in figure 2, multicast
  779.    heterogeneity occurs when receivers request different qualities of
  780.    service within a single session.  This means that the amount of
  781.    requested resources differs on a per next hop basis. A related type
  782.    of heterogeneity occurs due to best-effort receivers.  In any IP
  783.  
  784.  
  785.  
  786. Crawley, et. al.             Informational                     [Page 14]
  787.  
  788. RFC 2382         Integrated Services and RSVP over ATM       August 1998
  789.  
  790.  
  791.    multicast group, it is possible that some receivers will request QoS
  792.    (via RSVP) and some receivers will not. In shared media networks,
  793.    like Ethernet, receivers that have not requested resources can
  794.    typically be given identical service to those that have without
  795.    complications.  This is not the case with ATM. In ATM networks, any
  796.    additional end-points of a VC must be explicitly added. There may be
  797.    costs associated with adding the best-effort receiver, and there
  798.    might not be adequate resources.  An RSVP over ATM solution will need
  799.    to support heterogeneous receivers even though ATM does not currently
  800.    provide such support directly.
  801.  
  802.    RSVP heterogeneity is supported over ATM in the way RSVP reservations
  803.    are mapped into ATM VCs.  There are four alternative approaches this
  804.    mapping. There are multiple models for supporting RSVP heterogeneity
  805.    over ATM.  Section 4.2.3.1 examines the multiple VCs per RSVP
  806.    reservation (or full heterogeneity) model where a single reservation
  807.    can be forwarded onto several VCs each with a different QoS. Section
  808.    4.2.3.2 presents a limited heterogeneity model where exactly one QoS
  809.    VC is used along with a best effort VC.  Section 4.2.3.3 examines the
  810.    VC per RSVP reservation (or homogeneous) model, where each RSVP
  811.    reservation is mapped to a single ATM VC.  Section 4.2.3.4 describes
  812.    the aggregation model allowing aggregation of multiple RSVP
  813.    reservations into a single VC.
  814.  
  815. 4.2.3.1 Full Heterogeneity Model
  816.  
  817.    RSVP supports heterogeneous QoS, meaning that different receivers of
  818.    the same multicast group can request a different QoS.  But
  819.    importantly, some receivers might have no reservation at all and want
  820.    to receive the traffic on a best effort service basis.  The IP model
  821.    allows receivers to join a multicast group at any time on a best
  822.    effort basis, and it is important that ATM as part of the Internet
  823.    continue to provide this service. We define the "full heterogeneity"
  824.    model as providing a separate VC for each distinct QoS for a
  825.    multicast session including best effort and one or more qualities of
  826.    service.
  827.  
  828.    Note that while full heterogeneity gives users exactly what they
  829.    request, it requires more resources of the network than other
  830.    possible approaches. The exact amount of bandwidth used for duplicate
  831.    traffic depends on the network topology and group membership.
  832.  
  833. 4.2.3.2 Limited Heterogeneity Model
  834.  
  835.    We define the "limited heterogeneity" model as the case where the
  836.    receivers of a multicast session are limited to use either best
  837.    effort service or a single alternate quality of service.  The
  838.    alternate QoS can be chosen either by higher level protocols or by
  839.  
  840.  
  841.  
  842. Crawley, et. al.             Informational                     [Page 15]
  843.  
  844. RFC 2382         Integrated Services and RSVP over ATM       August 1998
  845.  
  846.  
  847.    dynamic renegotiation of QoS as described below.
  848.  
  849.    In order to support limited heterogeneity, each ATM edge device
  850.    participating in a session would need at most two VCs.  One VC would
  851.    be a point-to-multipoint best effort service VC and would serve all
  852.    best effort service IP destinations for this RSVP session.
  853.  
  854.    The other VC would be a point to multipoint VC with QoS and would
  855.    serve all IP destinations for this RSVP session that have an RSVP
  856.    reservation established.
  857.  
  858.    As with full heterogeneity, a disadvantage of the limited
  859.    heterogeneity scheme is that each packet will need to be duplicated
  860.    at the network layer and one copy sent into each of the 2 VCs.
  861.    Again, the exact amount of excess traffic will depend on the network
  862.    topology and group membership. If any of the existing QoS VC end-
  863.    points cannot upgrade to the new QoS, then the new reservation fails
  864.    though the resources exist for the new receiver.
  865.  
  866. 4.2.3.3 Homogeneous and Modified Homogeneous Models
  867.  
  868.    We define the "homogeneous" model as the case where all receivers of
  869.    a multicast session use a single quality of service VC. Best-effort
  870.    receivers also use the single RSVP triggered QoS VC.  The single VC
  871.    can be a point-to-point or point-to-multipoint as appropriate. The
  872.    QoS VC is sized to provide the maximum resources requested by all
  873.    RSVP next- hops.
  874.  
  875.    This model matches the way the current RSVP specification addresses
  876.    heterogeneous requests. The current processing rules and traffic
  877.    control interface describe a model where the largest requested
  878.    reservation for a specific outgoing interface is used in resource
  879.    allocation, and traffic is transmitted at the higher rate to all
  880.    next-hops. This approach would be the simplest method for RSVP over
  881.    ATM implementations.
  882.  
  883.    While this approach is simple to implement, providing better than
  884.    best-effort service may actually be the opposite of what the user
  885.    desires.  There may be charges incurred or resources that are
  886.    wrongfully allocated.  There are two specific problems. The first
  887.    problem is that a user making a small or no reservation would share a
  888.    QoS VC resources without making (and perhaps paying for) an RSVP
  889.    reservation. The second problem is that a receiver may not receive
  890.    any data.  This may occur when there is insufficient resources to add
  891.    a receiver.  The rejected user would not be added to the single VC
  892.    and it would not even receive traffic on a best effort basis.
  893.  
  894.  
  895.  
  896.  
  897.  
  898. Crawley, et. al.             Informational                     [Page 16]
  899.  
  900. RFC 2382         Integrated Services and RSVP over ATM       August 1998
  901.  
  902.  
  903.    Not sending data traffic to best-effort receivers because of another
  904.    receiver's RSVP request is clearly unacceptable.  The previously
  905.    described limited heterogeneous model ensures that data is always
  906.    sent to both QoS and best-effort receivers, but it does so by
  907.    requiring replication of data at the sender in all cases.  It is
  908.    possible to extend the homogeneous model to both ensure that data is
  909.    always sent to best-effort receivers and also to avoid replication in
  910.    the normal case.  This extension is to add special handling for the
  911.    case where a best- effort receiver cannot be added to the QoS VC.  In
  912.    this case, a best effort VC can be established to any receivers that
  913.    could not be added to the QoS VC. Only in this special error case
  914.    would senders be required to replicate data.  We define this approach
  915.    as the "modified homogeneous" model.
  916.  
  917. 4.2.3.4 Aggregation
  918.  
  919.    The last scheme is the multiple RSVP reservations per VC (or
  920.    aggregation) model. With this model, large VCs could be set up
  921.    between IP routers and hosts in an ATM network. These VCs could be
  922.    managed much like IP Integrated Service (IIS) point-to-point links
  923.    (e.g. T-1, DS-3) are managed now. Traffic from multiple sources over
  924.    multiple RSVP sessions might be multiplexed on the same VC. This
  925.    approach has a number of advantages. First, there is typically no
  926.    signalling latency as VCs would be in existence when the traffic
  927.    started flowing, so no time is wasted in setting up VCs.   Second,
  928.    the heterogeneity problem in full over ATM has been reduced to a
  929.    solved problem. Finally, the dynamic QoS problem for ATM has also
  930.    been reduced to a solved problem.  This approach can be used with
  931.    point-to-point and point-to-multipoint VCs. The problem with the
  932.    aggregation approach is that the choice of what QoS to use for which
  933.    of the VCs is difficult, but is made easier if the VCs can be changed
  934.    as needed.
  935.  
  936. 4.2.4 Multicast End-Point Identification
  937.  
  938.    Implementations must be able to identify ATM end-points participating
  939.    in an IP multicast group.  The ATM end-points will be IP multicast
  940.    receivers and/or next-hops.  Both QoS and best-effort end-points must
  941.    be identified.  RSVP next-hop information will provide QoS end-
  942.    points, but not best-effort end-points. Another issue is identifying
  943.    end-points of multicast traffic handled by non-RSVP capable next-
  944.    hops. In this case a PATH message travels through a non-RSVP egress
  945.    router on the way to the next hop RSVP node.  When the next hop RSVP
  946.    node sends a RESV message it may arrive at the source over a
  947.    different route than what the data is using. The source will get the
  948.    RESV message, but will not know which egress router needs the QoS.
  949.    For unicast sessions, there is no problem since the ATM end-point
  950.    will be the IP next-hop router.  Unfortunately, multicast routing may
  951.  
  952.  
  953.  
  954. Crawley, et. al.             Informational                     [Page 17]
  955.  
  956. RFC 2382         Integrated Services and RSVP over ATM       August 1998
  957.  
  958.  
  959.    not be able to uniquely identify the IP next-hop router.  So it is
  960.    possible that a multicast end-point can not be identified.
  961.  
  962.    In the most common case, MARS will be used to identify all end-points
  963.    of a multicast group.  In the router to router case, a multicast
  964.    routing protocol may provide all next-hops for a particular multicast
  965.    group.  In either case, RSVP over ATM implementations must obtain a
  966.    full list of end-points, both QoS and non-QoS, using the appropriate
  967.    mechanisms.  The full list can be compared against the RSVP
  968.    identified end-points to determine the list of best-effort receivers.
  969.    There is no straightforward solution to uniquely identifying end-
  970.    points of multicast traffic handled by non-RSVP next hops.  The
  971.    preferred solution is to use multicast routing protocols that support
  972.    unique end-point identification.  In cases where such routing
  973.    protocols are unavailable, all IP routers that will be used to
  974.    support RSVP over ATM should support RSVP.  To ensure proper
  975.    behavior, implementations should, by default, only establish RSVP-
  976.    initiated VCs to RSVP capable end-points.
  977.  
  978. 4.2.5 Multicast Data Distribution
  979.  
  980.    Two models are planned for IP multicast data distribution over ATM.
  981.    In one model, senders establish point-to-multipoint VCs to all ATM
  982.    attached destinations, and data is then sent over these VCs.  This
  983.    model is often called "multicast mesh" or "VC mesh" mode
  984.    distribution.  In the second model, senders send data over point-to-
  985.    point VCs to a central point and the central point relays the data
  986.    onto point-to-multipoint VCs that have been established to all
  987.    receivers of the IP multicast group.  This model is often referred to
  988.    as "multicast server" mode distribution. RSVP over ATM solutions must
  989.    ensure that IP multicast data is distributed with appropriate QoS.
  990.  
  991.    In the Classical IP context, multicast server support is provided via
  992.    MARS [5].  MARS does not currently provide a way to communicate QoS
  993.    requirements to a MARS multicast server.  Therefore, RSVP over ATM
  994.    implementations must, by default, support "mesh-mode" distribution
  995.    for RSVP controlled multicast flows.  When using multicast servers
  996.    that do not support QoS requests, a sender must set the service, not
  997.    global, break bit(s).
  998.  
  999. 4.2.6 Receiver Transitions
  1000.  
  1001.    When setting up a point-to-multipoint VCs for multicast RSVP
  1002.    sessions, there will be a time when some receivers have been added to
  1003.    a QoS VC and some have not.  During such transition times it is
  1004.    possible to start sending data on the newly established VC.  The
  1005.    issue is when to start send data on the new VC.  If data is sent both
  1006.    on the new VC and the old VC, then data will be delivered with proper
  1007.  
  1008.  
  1009.  
  1010. Crawley, et. al.             Informational                     [Page 18]
  1011.  
  1012. RFC 2382         Integrated Services and RSVP over ATM       August 1998
  1013.  
  1014.  
  1015.    QoS to some receivers and with the old QoS to all receivers.  This
  1016.    means the QoS receivers can get duplicate data.  If data is sent just
  1017.    on the new QoS VC, the receivers that have not yet been added will
  1018.    lose information.  So, the issue comes down to whether to send to
  1019.    both the old and new VCs, or to send to just one of the VCs.  In one
  1020.    case duplicate information will be received, in the other some
  1021.    information may not be received.
  1022.  
  1023.    This issue needs to be considered for three cases:
  1024.  
  1025.    - When establishing the first QoS VC
  1026.    - When establishing a VC to support a QoS change
  1027.    - When adding a new end-point to an already established QoS VC
  1028.  
  1029.    The first two cases are very similar.  It both, it is possible to
  1030.    send data on the partially completed new VC, and the issue of
  1031.    duplicate versus lost information is the same. The last case is when
  1032.    an end-point must be added to an existing QoS VC.  In this case the
  1033.    end-point must be both added to the QoS VC and dropped from a best-
  1034.    effort VC.  The issue is which to do first.  If the add is first
  1035.    requested, then the end-point may get duplicate information.  If the
  1036.    drop is requested first, then the end-point may loose information.
  1037.  
  1038.    In order to ensure predictable behavior and delivery of data to all
  1039.    receivers, data can only be sent on a new VCs once all parties have
  1040.    been added.  This will ensure that all data is only delivered once to
  1041.    all receivers.  This approach does not quite apply for the last case.
  1042.    In the last case, the add operation should be completed first, then
  1043.    the drop operation.  This means that receivers must be prepared to
  1044.    receive some duplicate packets at times of QoS setup.
  1045.  
  1046. 4.2.7 Dynamic QoS
  1047.  
  1048.    RSVP provides dynamic quality of service (QoS) in that the resources
  1049.    that are requested may change at any time. There are several common
  1050.    reasons for a change of reservation QoS.
  1051.  
  1052.    1. An existing receiver can request a new larger (or smaller) QoS.
  1053.    2. A sender may change its traffic specification (TSpec), which can
  1054.       trigger a change in the reservation requests of the receivers.
  1055.    3. A new sender can start sending to a multicast group with a larger
  1056.       traffic specification than existing senders, triggering larger
  1057.       reservations.
  1058.    4. A new receiver can make a reservation that is larger than existing
  1059.       reservations.
  1060.  
  1061.  
  1062.  
  1063.  
  1064.  
  1065.  
  1066. Crawley, et. al.             Informational                     [Page 19]
  1067.  
  1068. RFC 2382         Integrated Services and RSVP over ATM       August 1998
  1069.  
  1070.  
  1071.    If the limited heterogeneity model is being used and the merge node
  1072.    for the larger reservation is an ATM edge device, a new larger
  1073.    reservation must be set up across the ATM network. Since ATM service,
  1074.    as currently defined in UNI 3.x and UNI 4.0, does not allow
  1075.    renegotiating the QoS of a VC, dynamically changing the reservation
  1076.    means creating a new VC with the new QoS, and tearing down an
  1077.    established VC. Tearing down a VC and setting up a new VC in ATM are
  1078.    complex operations that involve a non-trivial amount of processing
  1079.    time, and may have a substantial latency.  There are several options
  1080.    for dealing with this mismatch in service.  A specific approach will
  1081.    need to be a part of any RSVP over ATM solution.
  1082.  
  1083.    The default method for supporting changes in RSVP reservations is to
  1084.    attempt to replace an existing VC with a new appropriately sized VC.
  1085.    During setup of the replacement VC, the old VC must be left in place
  1086.    unmodified. The old VC is left unmodified to minimize interruption of
  1087.    QoS data delivery.  Once the replacement VC is established, data
  1088.    transmission is shifted to the new VC, and the old VC is then closed.
  1089.    If setup of the replacement VC fails, then the old QoS VC should
  1090.    continue to be used. When the new reservation is greater than the old
  1091.    reservation, the reservation request should be answered with an
  1092.    error.  When the new reservation is less than the old reservation,
  1093.    the request should be treated as if the modification was successful.
  1094.    While leaving the larger allocation in place is suboptimal, it
  1095.    maximizes delivery of service to the user. Implementations should
  1096.    retry replacing the too large VC after some appropriate elapsed time.
  1097.  
  1098.    One additional issue is that only one QoS change can be processed at
  1099.    one time per reservation. If the (RSVP) requested QoS is changed
  1100.    while the first replacement VC is still being setup, then the
  1101.    replacement VC is released and the whole VC replacement process is
  1102.    restarted. To limit the number of changes and to avoid excessive
  1103.    signalling load, implementations may limit the number of changes that
  1104.    will be processed in a given period.  One implementation approach
  1105.    would have each ATM edge device configured with a time parameter T
  1106.    (which can change over time) that gives the minimum amount of time
  1107.    the edge device will wait between successive changes of the QoS of a
  1108.    particular VC.  Thus if the QoS of a VC is changed at time t, all
  1109.    messages that would change the QoS of that VC that arrive before time
  1110.    t+T would be queued. If several messages changing the QoS of a VC
  1111.    arrive during the interval, redundant messages can be discarded. At
  1112.    time t+T, the remaining change(s) of QoS, if any, can be executed.
  1113.    This timer approach would apply more generally to any network
  1114.    structure, and might be worthwhile to incorporate into RSVP.
  1115.  
  1116.  
  1117.  
  1118.  
  1119.  
  1120.  
  1121.  
  1122. Crawley, et. al.             Informational                     [Page 20]
  1123.  
  1124. RFC 2382         Integrated Services and RSVP over ATM       August 1998
  1125.  
  1126.  
  1127.    The sequence of events for a single VC would be
  1128.  
  1129.    - Wait if timer is active
  1130.    - Establish VC with new QoS
  1131.    - Remap data traffic to new VC
  1132.    - Tear down old VC
  1133.    - Activate timer
  1134.  
  1135.    There is an interesting interaction between heterogeneous
  1136.    reservations and dynamic QoS. In the case where a RESV message is
  1137.    received from a new next-hop and the requested resources are larger
  1138.    than any existing reservation, both dynamic QoS and heterogeneity
  1139.    need to be addressed. A key issue is whether to first add the new
  1140.    next-hop or to change to the new QoS. This is a fairly straight
  1141.    forward special case. Since the older, smaller reservation does not
  1142.    support the new next-hop, the dynamic QoS process should be initiated
  1143.    first. Since the new QoS is only needed by the new next-hop, it
  1144.    should be the first end-point of the new VC.  This way signalling is
  1145.    minimized when the setup to the new next-hop fails.
  1146.  
  1147. 4.2.8 Short-Cuts
  1148.  
  1149.    Short-cuts [4] allow ATM attached routers and hosts to directly
  1150.    establish point-to-point VCs across LIS boundaries, i.e., the VC
  1151.    end-points are on different IP subnets.  The ability for short-cuts
  1152.    and RSVP to interoperate has been raised as a general question.  An
  1153.    area of concern is the ability to handle asymmetric short-cuts.
  1154.    Specifically how RSVP can handle the case where a downstream short-
  1155.    cut may not have a matching upstream short-cut.  In this case, PATH
  1156.    and RESV messages following different paths.
  1157.  
  1158.    Examination of RSVP shows that the protocol already includes
  1159.    mechanisms that will support short-cuts.  The mechanism is the same
  1160.    one used to support RESV messages arriving at the wrong router and
  1161.    the wrong interface.  The key aspect of this mechanism is RSVP only
  1162.    processing messages that arrive at the proper interface and RSVP
  1163.    forwarding of messages that arrive on the wrong interface.  The
  1164.    proper interface is indicated in the NHOP object of the message.  So,
  1165.    existing RSVP mechanisms will support asymmetric short-cuts. The
  1166.    short-cut model of VC establishment still poses several issues when
  1167.    running with RSVP. The major issues are dealing with established
  1168.    best-effort short-cuts, when to establish short-cuts, and QoS only
  1169.    short-cuts. These issues will need to be addressed by RSVP
  1170.    implementations.
  1171.  
  1172.    The key issue to be addressed by any RSVP over ATM solution is when
  1173.    to establish a short-cut for a QoS data flow. The default behavior is
  1174.    to simply follow best-effort traffic. When a short-cut has been
  1175.  
  1176.  
  1177.  
  1178. Crawley, et. al.             Informational                     [Page 21]
  1179.  
  1180. RFC 2382         Integrated Services and RSVP over ATM       August 1998
  1181.  
  1182.  
  1183.    established for best-effort traffic to a destination or next-hop,
  1184.    that same end-point should be used when setting up RSVP triggered VCs
  1185.    for QoS traffic to the same destination or next-hop. This will happen
  1186.    naturally when PATH messages are forwarded over the best-effort
  1187.    short-cut.  Note that in this approach when best-effort short-cuts
  1188.    are never established, RSVP triggered QoS short-cuts will also never
  1189.    be established.  More study is expected in this area.
  1190.  
  1191. 4.2.9 VC Teardown
  1192.  
  1193.    RSVP can identify from either explicit messages or timeouts when a
  1194.    data VC is no longer needed.  Therefore, data VCs set up to support
  1195.    RSVP controlled flows should only be released at the direction of
  1196.    RSVP. VCs must not be timed out due to inactivity by either the VC
  1197.    initiator or the VC receiver.   This conflicts with VCs timing out as
  1198.    described in RFC 1755 [11], section 3.4 on VC Teardown.  RFC 1755
  1199.    recommends tearing down a VC that is inactive for a certain length of
  1200.    time. Twenty minutes is recommended. This timeout is typically
  1201.    implemented at both the VC initiator and the VC receiver.   Although,
  1202.    section 3.1 of the update to RFC 1755 [11] states that inactivity
  1203.    timers must not be used at the VC receiver.
  1204.  
  1205.    When this timeout occurs for an RSVP initiated VC, a valid VC with
  1206.    QoS will be torn down unexpectedly.  While this behavior is
  1207.    acceptable for best-effort traffic, it is important that RSVP
  1208.    controlled VCs not be torn down.  If there is no choice about the VC
  1209.    being torn down, the RSVP daemon must be notified, so a reservation
  1210.    failure message can be sent.
  1211.  
  1212.    For VCs initiated at the request of RSVP, the configurable inactivity
  1213.    timer mentioned in [11] must be set to "infinite".  Setting the
  1214.    inactivity timer value at the VC initiator should not be problematic
  1215.    since the proper value can be relayed internally at the originator.
  1216.    Setting the inactivity timer at the VC receiver is more difficult,
  1217.    and would require some mechanism to signal that an incoming VC was
  1218.    RSVP initiated.  To avoid this complexity and to conform to [11]
  1219.    implementations must not use an inactivity timer to clear received
  1220.    connections.
  1221.  
  1222. 4.3 RSVP Control Management
  1223.  
  1224.    One last important issue is providing a data path for the RSVP
  1225.    messages themselves.  There are two main types of messages in RSVP,
  1226.    PATH and RESV. PATH messages are sent to unicast or multicast
  1227.    addresses, while RESV messages are sent only to unicast addresses.
  1228.    Other RSVP messages are handled similar to either PATH or RESV,
  1229.    although this might be more complicated for RERR messages.  So ATM
  1230.    VCs used for RSVP signalling messages need to provide both unicast
  1231.  
  1232.  
  1233.  
  1234. Crawley, et. al.             Informational                     [Page 22]
  1235.  
  1236. RFC 2382         Integrated Services and RSVP over ATM       August 1998
  1237.  
  1238.  
  1239.    and multicast functionality.  There are several different approaches
  1240.    for how to assign VCs to use for RSVP signalling messages.
  1241.  
  1242.    The main approaches are:
  1243.  
  1244.       - use same VC as data
  1245.       - single VC per session
  1246.       - single point-to-multipoint VC multiplexed among sessions
  1247.       - multiple point-to-point VCs multiplexed among sessions
  1248.  
  1249.    There are several different issues that affect the choice of how to
  1250.    assign VCs for RSVP signalling. One issue is the number of additional
  1251.    VCs needed for RSVP signalling. Related to this issue is the degree
  1252.    of multiplexing on the RSVP VCs. In general more multiplexing means
  1253.    fewer VCs. An additional issue is the latency in dynamically setting
  1254.    up new RSVP signalling VCs. A final issue is complexity of
  1255.    implementation. The remainder of this section discusses the issues
  1256.    and tradeoffs among these different approaches and suggests
  1257.    guidelines for when to use which alternative.
  1258.  
  1259. 4.3.1 Mixed data and control traffic
  1260.  
  1261.    In this scheme RSVP signalling messages are sent on the same VCs as
  1262.    is the data traffic. The main advantage of this scheme is that no
  1263.    additional VCs are needed beyond what is needed for the data traffic.
  1264.    An additional advantage is that there is no ATM signalling latency
  1265.    for PATH messages (which follow the same routing as the data
  1266.    messages).  However there can be a major problem when data traffic on
  1267.    a VC is nonconforming. With nonconforming traffic, RSVP signalling
  1268.    messages may be dropped. While RSVP is resilient to a moderate level
  1269.    of dropped messages, excessive drops would lead to repeated tearing
  1270.    down and re-establishing of QoS VCs, a very undesirable behavior for
  1271.    ATM. Due to these problems, this may not be a good choice for
  1272.    providing RSVP signalling messages, even though the number of VCs
  1273.    needed for this scheme is minimized. One variation of this scheme is
  1274.    to use the best effort data path for signalling traffic. In this
  1275.    scheme, there is no issue with nonconforming traffic, but there is an
  1276.    issue with congestion in the ATM network. RSVP provides some
  1277.    resiliency to message loss due to congestion, but RSVP control
  1278.    messages should be offered a preferred class of service. A related
  1279.    variation of this scheme that is hopeful but requires further study
  1280.    is to have a packet scheduling algorithm (before entering the ATM
  1281.    network) that gives priority to the RSVP signalling traffic. This can
  1282.    be difficult to do at the IP layer.
  1283.  
  1284.  
  1285.  
  1286.  
  1287.  
  1288.  
  1289.  
  1290. Crawley, et. al.             Informational                     [Page 23]
  1291.  
  1292. RFC 2382         Integrated Services and RSVP over ATM       August 1998
  1293.  
  1294.  
  1295. 4.3.1.1 Single RSVP VC per RSVP Reservation
  1296.  
  1297.    In this scheme, there is a parallel RSVP signalling VC for each RSVP
  1298.    reservation. This scheme results in twice the number of VCs, but
  1299.    means that RSVP signalling messages have the advantage of a separate
  1300.    VC.  This separate VC means that RSVP signalling messages have their
  1301.    own traffic contract and compliant signalling messages are not
  1302.    subject to dropping due to other noncompliant traffic (such as can
  1303.    happen with the scheme in section 4.3.1). The advantage of this
  1304.    scheme is its simplicity - whenever a data VC is created, a separate
  1305.    RSVP signalling VC is created.  The disadvantage of the extra VC is
  1306.    that extra ATM signalling needs to be done. Additionally, this scheme
  1307.    requires twice the minimum number of VCs and also additional latency,
  1308.    but is quite simple.
  1309.  
  1310. 4.3.1.2 Multiplexed point-to-multipoint RSVP VCs
  1311.  
  1312.    In this scheme, there is a single point-to-multipoint RSVP signalling
  1313.    VC for each unique ingress router and unique set of egress routers.
  1314.    This scheme allows multiplexing of RSVP signalling traffic that
  1315.    shares the same ingress router and the same egress routers.  This can
  1316.    save on the number of VCs, by multiplexing, but there are problems
  1317.    when the destinations of the multiplexed point-to-multipoint VCs are
  1318.    changing.  Several alternatives exist in these cases, that have
  1319.    applicability in different situations. First, when the egress routers
  1320.    change, the ingress router can check if it already has a point-to-
  1321.    multipoint RSVP signalling VC for the new list of egress routers. If
  1322.    the RSVP signalling VC already exists, then the RSVP signalling
  1323.    traffic can be switched to this existing VC. If no such VC exists,
  1324.    one approach would be to create a new VC with the new list of egress
  1325.    routers. Other approaches include modifying the existing VC to add an
  1326.    egress router or using a separate new VC for the new egress routers.
  1327.    When a destination drops out of a group, an alternative would be to
  1328.    keep sending to the existing VC even though some traffic is wasted.
  1329.    The number of VCs used in this scheme is a function of traffic
  1330.    patterns across the ATM network, but is always less than the number
  1331.    used with the Single RSVP VC per data VC. In addition, existing best
  1332.    effort data VCs could be used for RSVP signalling. Reusing best
  1333.    effort VCs saves on the number of VCs at the cost of higher
  1334.    probability of RSVP signalling packet loss.  One possible place where
  1335.    this scheme will work well is in the core of the network where there
  1336.    is the most opportunity to take advantage of the savings due to
  1337.    multiplexing.  The exact savings depend on the patterns of traffic
  1338.    and the topology of the ATM network.
  1339.  
  1340.  
  1341.  
  1342.  
  1343.  
  1344.  
  1345.  
  1346. Crawley, et. al.             Informational                     [Page 24]
  1347.  
  1348. RFC 2382         Integrated Services and RSVP over ATM       August 1998
  1349.  
  1350.  
  1351. 4.3.1.3 Multiplexed point-to-point RSVP VCs
  1352.  
  1353.    In this scheme, multiple point-to-point RSVP signalling VCs are used
  1354.    for a single point-to-multipoint data VC.  This scheme allows
  1355.    multiplexing of RSVP signalling traffic but requires the same traffic
  1356.    to be sent on each of several VCs. This scheme is quite flexible and
  1357.    allows a large amount of multiplexing.
  1358.  
  1359.    Since point-to-point VCs can set up a reverse channel at the same
  1360.    time as setting up the forward channel, this scheme could save
  1361.    substantially on signalling cost.  In addition, signalling traffic
  1362.    could share existing best effort VCs.  Sharing existing best effort
  1363.    VCs reduces the total number of VCs needed, but might cause
  1364.    signalling traffic drops if there is congestion in the ATM network.
  1365.    This point-to-point scheme would work well in the core of the network
  1366.    where there is much opportunity for multiplexing. Also in the core of
  1367.    the network, RSVP VCs can stay permanently established either as
  1368.    Permanent Virtual Circuits (PVCs) or  as long lived Switched Virtual
  1369.    Circuits (SVCs). The number of VCs in this scheme will depend on
  1370.    traffic patterns, but in the core of a network would be approximately
  1371.    n(n-1)/2 where n is the number of IP nodes in the network.  In the
  1372.    core of the network, this will typically be small compared to the
  1373.    total number of VCs.
  1374.  
  1375. 4.3.2 QoS for RSVP VCs
  1376.  
  1377.    There is an issue of what QoS, if any, to assign to the RSVP
  1378.    signalling VCs. For other RSVP VC schemes, a QoS (possibly best
  1379.    effort) will be needed.  What QoS to use partially depends on the
  1380.    expected level of multiplexing that is being done on the VCs, and the
  1381.    expected reliability of best effort VCs. Since RSVP signalling is
  1382.    infrequent (typically every 30 seconds), only a relatively small QoS
  1383.    should be needed. This is important since using a larger QoS risks
  1384.    the VC setup being rejected for lack of resources. Falling back to
  1385.    best effort when a QoS call is rejected is possible, but if the ATM
  1386.    net is congested, there will likely be problems with RSVP packet loss
  1387.    on the best effort VC also. Additional experimentation is needed in
  1388.    this area.
  1389.  
  1390. 5. Encapsulation
  1391.  
  1392.    Since RSVP is a signalling protocol used to control flows of IP data
  1393.    packets, encapsulation for both RSVP packets and associated IP data
  1394.    packets must be defined. The methods for transmitting IP packets over
  1395.    ATM (Classical IP over ATM[10], LANE[17], and MPOA[18]) are all based
  1396.    on the encapsulations defined in RFC1483 [19].  RFC1483 specifies two
  1397.    encapsulations, LLC Encapsulation and VC-based multiplexing.  The
  1398.    former allows multiple protocols to be encapsulated over the same VC
  1399.  
  1400.  
  1401.  
  1402. Crawley, et. al.             Informational                     [Page 25]
  1403.  
  1404. RFC 2382         Integrated Services and RSVP over ATM       August 1998
  1405.  
  1406.  
  1407.    and the latter requires different VCs for different protocols.
  1408.  
  1409.    For the purposes of RSVP over ATM, any encapsulation can be used as
  1410.    long as the VCs are managed in accordance to the methods outlined in
  1411.    Section 4.  Obviously, running multiple protocol data streams over
  1412.    the same VC with LLC encapsulation can cause the same problems as
  1413.    running multiple flows over the same VC.
  1414.  
  1415.    While none of the transmission methods directly address the issue of
  1416.    QoS, RFC1755 [11] does suggest some common values for VC setup for
  1417.    best-effort traffic.  [14] discusses the relationship of the RFC1755
  1418.    setup parameters and those needed to support IntServ flows in greater
  1419.    detail.
  1420.  
  1421. 6. Security Considerations
  1422.  
  1423.    The same considerations stated in [1] and [11] apply to this
  1424.    document.  There are no additional security issues raised in this
  1425.    document.
  1426.  
  1427. 7. References
  1428.  
  1429.    [1] Braden, R., Zhang, L., Berson, S., Herzog, S., and S. Jamin,
  1430.        "Resource ReSerVation Protocol (RSVP) -- Version 1 Functional
  1431.        Specification", RFC 2209, September 1997.
  1432.  
  1433.    [2] Borden, M., Crawley, E., Davie, B., and S. Batsell, "Integration
  1434.        of Realtime Services in an IP-ATM Network Architecture", RFC
  1435.        1821, August 1995.
  1436.  
  1437.    [3] Cole, R., Shur, D., and C. Villamizar, "IP over ATM: A Framework
  1438.        Document", RFC 1932, April 1996.
  1439.  
  1440.    [4] Luciani, J., Katz, D., Piscitello, D., Cole, B., and N.
  1441.        Doraswamy, "NBMA Next Hop Resolution Protocol (NHRP)", RFC 2332,
  1442.        April 1998.
  1443.  
  1444.    [5] Armitage, G., "Support for Multicast over UNI 3.0/3.1 based ATM
  1445.        Networks", RFC 2022, November 1996.
  1446.  
  1447.    [6] Shenker, S., and C. Partridge, "Specification of Guaranteed
  1448.        Quality of Service", RFC 2212, September 1997.
  1449.  
  1450.    [7] Wroclawski, J., "Specification of the Controlled-Load Network
  1451.        Element Service", RFC 2211, September 1997.
  1452.  
  1453.    [8] ATM Forum. ATM User-Network Interface Specification Version 3.0.
  1454.        Prentice Hall, September 1993.
  1455.  
  1456.  
  1457.  
  1458. Crawley, et. al.             Informational                     [Page 26]
  1459.  
  1460. RFC 2382         Integrated Services and RSVP over ATM       August 1998
  1461.  
  1462.  
  1463.    [9] ATM Forum. ATM User Network Interface (UNI) Specification Version
  1464.        3.1. Prentice Hall, June 1995.
  1465.  
  1466.    [10] Laubach, M., "Classical IP and ARP over ATM", RFC 2225, April
  1467.         1998.
  1468.  
  1469.    [11] Perez, M., Mankin, A., Hoffman, E., Grossman, G., and A. Malis,
  1470.         "ATM Signalling Support for IP over ATM", RFC 1755, February
  1471.         1995.
  1472.  
  1473.    [12] Herzog, S., "RSVP Extensions for Policy Control", Work in
  1474.         Progress.
  1475.  
  1476.    [13] Herzog, S., "Local Policy Modules (LPM): Policy Control for
  1477.         RSVP", Work in Progress.
  1478.  
  1479.    [14] Borden, M., and M. Garrett, "Interoperation of Controlled-Load
  1480.         and Guaranteed Service with ATM", RFC 2381, August 1998.
  1481.  
  1482.    [15] Berger, L., "RSVP over ATM Implementation Requirements", RFC
  1483.         2380, August 1998.
  1484.  
  1485.    [16] Berger, L., "RSVP over ATM Implementation Guidelines", RFC 2379,
  1486.         August 1998.
  1487.  
  1488.    [17] ATM Forum Technical Committee. LAN Emulation over ATM, Version
  1489.         1.0 Specification, af-lane-0021.000, January 1995.
  1490.  
  1491.    [18] ATM Forum Technical Committee. Baseline Text for MPOA, af-95-
  1492.         0824r9, September 1996.
  1493.  
  1494.    [19] Heinanen, J., "Multiprotocol Encapsulation over ATM Adaptation
  1495.         Layer 5", RFC 1483, July 1993.
  1496.  
  1497.    [20] ATM Forum Technical Committee. LAN Emulation over ATM Version 2
  1498.         - LUNI Specification, December 1996.
  1499.  
  1500.    [21] ATM Forum Technical Committee. Traffic Management Specification
  1501.         v4.0, af-tm-0056.000, April 1996.
  1502.  
  1503.    [22] Callon, R., et al., "A Framework for Multiprotocol Label
  1504.         Switching, Work in Progress.
  1505.  
  1506.    [23] Rajagopalan, B., Nair, R., Sandick, H., and E. Crawley, "A
  1507.         Framework for QoS-based Routing in the Internet", RFC 2386,
  1508.         August 1998.
  1509.  
  1510.  
  1511.  
  1512.  
  1513.  
  1514. Crawley, et. al.             Informational                     [Page 27]
  1515.  
  1516. RFC 2382         Integrated Services and RSVP over ATM       August 1998
  1517.  
  1518.  
  1519.    [24] ITU-T. Digital Subscriber Signaling System No. 2-Connection
  1520.         modification: Peak cell rate modification by the connection
  1521.         owner, ITU-T Recommendation Q.2963.1, July 1996.
  1522.  
  1523.    [25] ITU-T. Digital Subscriber Signaling System No. 2-Connection
  1524.         characteristics negotiation during call/connection establishment
  1525.         phase, ITU-T Recommendation Q.2962, July 1996.
  1526.  
  1527.    [26] ATM Forum Technical Committee. Private Network-Network Interface
  1528.         Specification v1.0 (PNNI), March 1996.
  1529.  
  1530. 8. Authors' Addresses
  1531.  
  1532.    Eric S. Crawley
  1533.    Argon Networks
  1534.    25 Porter Road
  1535.    Littleton, Ma 01460
  1536.  
  1537.    Phone: +1 978 486-0665
  1538.    EMail: esc@argon.com
  1539.  
  1540.  
  1541.    Lou Berger
  1542.    FORE Systems
  1543.    6905 Rockledge Drive
  1544.    Suite 800
  1545.    Bethesda, MD 20817
  1546.  
  1547.    Phone: +1 301 571-2534
  1548.    EMail: lberger@fore.com
  1549.  
  1550.  
  1551.    Steven Berson
  1552.    USC Information Sciences Institute
  1553.    4676 Admiralty Way
  1554.    Marina del Rey, CA 90292
  1555.  
  1556.    Phone: +1 310 822-1511
  1557.    EMail: berson@isi.edu
  1558.  
  1559.  
  1560.    Fred Baker
  1561.    Cisco Systems
  1562.    519 Lado Drive
  1563.    Santa Barbara, California 93111
  1564.  
  1565.    Phone: +1 805 681-0115
  1566.    EMail: fred@cisco.com
  1567.  
  1568.  
  1569.  
  1570. Crawley, et. al.             Informational                     [Page 28]
  1571.  
  1572. RFC 2382         Integrated Services and RSVP over ATM       August 1998
  1573.  
  1574.  
  1575.    Marty Borden
  1576.    Bay Networks
  1577.    125 Nagog Park
  1578.    Acton, MA 01720
  1579.  
  1580.    Phone: +1 978 266-1011
  1581.    EMail: mborden@baynetworks.com
  1582.  
  1583.  
  1584.    John J. Krawczyk
  1585.    ArrowPoint Communications
  1586.    235 Littleton Road
  1587.    Westford, Massachusetts 01886
  1588.  
  1589.    Phone: +1 978 692-5875
  1590.    EMail: jj@arrowpoint.com
  1591.  
  1592.  
  1593.  
  1594.  
  1595.  
  1596.  
  1597.  
  1598.  
  1599.  
  1600.  
  1601.  
  1602.  
  1603.  
  1604.  
  1605.  
  1606.  
  1607.  
  1608.  
  1609.  
  1610.  
  1611.  
  1612.  
  1613.  
  1614.  
  1615.  
  1616.  
  1617.  
  1618.  
  1619.  
  1620.  
  1621.  
  1622.  
  1623.  
  1624.  
  1625.  
  1626. Crawley, et. al.             Informational                     [Page 29]
  1627.  
  1628. RFC 2382         Integrated Services and RSVP over ATM       August 1998
  1629.  
  1630.  
  1631. 9.  Full Copyright Statement
  1632.  
  1633.    Copyright (C) The Internet Society (1998).  All Rights Reserved.
  1634.  
  1635.    This document and translations of it may be copied and furnished to
  1636.    others, and derivative works that comment on or otherwise explain it
  1637.    or assist in its implementation may be prepared, copied, published
  1638.    and distributed, in whole or in part, without restriction of any
  1639.    kind, provided that the above copyright notice and this paragraph are
  1640.    included on all such copies and derivative works.  However, this
  1641.    document itself may not be modified in any way, such as by removing
  1642.    the copyright notice or references to the Internet Society or other
  1643.    Internet organizations, except as needed for the purpose of
  1644.    developing Internet standards in which case the procedures for
  1645.    copyrights defined in the Internet Standards process must be
  1646.    followed, or as required to translate it into languages other than
  1647.    English.
  1648.  
  1649.    The limited permissions granted above are perpetual and will not be
  1650.    revoked by the Internet Society or its successors or assigns.
  1651.  
  1652.    This document and the information contained herein is provided on an
  1653.    "AS IS" basis and THE INTERNET SOCIETY AND THE INTERNET ENGINEERING
  1654.    TASK FORCE DISCLAIMS ALL WARRANTIES, EXPRESS OR IMPLIED, INCLUDING
  1655.    BUT NOT LIMITED TO ANY WARRANTY THAT THE USE OF THE INFORMATION
  1656.    HEREIN WILL NOT INFRINGE ANY RIGHTS OR ANY IMPLIED WARRANTIES OF
  1657.    MERCHANTABILITY OR FITNESS FOR A PARTICULAR PURPOSE.
  1658.  
  1659.  
  1660.  
  1661.  
  1662.  
  1663.  
  1664.  
  1665.  
  1666.  
  1667.  
  1668.  
  1669.  
  1670.  
  1671.  
  1672.  
  1673.  
  1674.  
  1675.  
  1676.  
  1677.  
  1678.  
  1679.  
  1680.  
  1681.  
  1682. Crawley, et. al.             Informational                     [Page 30]
  1683.  
  1684.