home *** CD-ROM | disk | FTP | other *** search
/ Internet Info 1997 December / Internet_Info_CD-ROM_Walnut_Creek_December_1997.iso / drafts / draft_ietf_i / draft-ietf-issll-atm-support-02.txt < prev    next >
Text File  |  1996-11-27  |  70KB  |  1,657 lines

  1.  
  2.  
  3. Internet Draft                                                 S. Berson
  4. Expires: May 1997                                                    ISI
  5. File: draft-ietf-issll-atm-support-02.ps                       L. Berger
  6.                                                             FORE Systems
  7.  
  8.  
  9.  
  10.                IP Integrated Services with RSVP over ATM
  11.  
  12.  
  13.  
  14.                            November 26, 1996
  15.  
  16. Status of Memo
  17.  
  18.    This document is an Internet-Draft.  Internet-Drafts are working
  19.    documents of the Internet Engineering Task Force (IETF), its areas,
  20.    and its working groups.  Note that other groups may also distribute
  21.    working documents as Internet-Drafts.
  22.  
  23.    Internet-Drafts are draft documents valid for a maximum of six months
  24.    and may be updated, replaced, or obsoleted by other documents at any
  25.    time.  It is inappropriate to use Internet-Drafts as reference
  26.    material or to cite them other than as "work in progress."
  27.  
  28.    To learn the current status of any Internet-Draft, please check the
  29.    "1id-abstracts.txt" listing contained in the Internet-Drafts Shadow
  30.    Directories on ds.internic.net (US East Coast), nic.nordu.net
  31.    (Europe), ftp.isi.edu (US West Coast), or munnari.oz.au (Pacific
  32.    Rim).
  33.  
  34. Abstract
  35.  
  36.    This draft describes a method for providing IP Integrated Services
  37.    with RSVP over ATM switched virtual circuits (SVCs).  It provides an
  38.    overall approach to the problem as well as a specific method for
  39.    running over today's ATM networks.  There are two parts of this
  40.    problem.  This draft provides guidelines for using ATM VCs with QoS
  41.    as part of an Integrated Services Internet.  A related draft[16]
  42.    describes service mappings between IP Integrated Services and ATM
  43.    services.
  44.  
  45.  
  46. Authors' Note
  47.  
  48.    The postscript version of this document contains figures that are not
  49.    included in the text version, so it is best to use the postscript
  50.    version.  Figures will be converted to ASCII in a future version.
  51.  
  52.  
  53.  
  54. Berson, Berger            Expiration: May 1997                  [Page 1]
  55.  
  56.  
  57.  
  58.  
  59. Internet Draft   Integrated Services with RSVP over ATM    November 1996
  60.  
  61.  
  62. Table of Contents
  63.  
  64. 1. Introduction ........................................................3
  65.    1.1 Terms ...........................................................4
  66.    1.2 Assumptions .....................................................5
  67. 2. Policy ..............................................................6
  68.    2.1 Implementation Guidelines .......................................7
  69. 3. Data VC Management ..................................................7
  70.    3.1 Reservation to VC Mapping .......................................8
  71.    3.2 Heterogeneity ...................................................9
  72.    3.3 Multicast End-Point Identification ..............................13
  73.    3.4 Multicast Data Distribution .....................................13
  74.    3.5 Receiver Transitions ............................................14
  75.    3.6 Dynamic QoS .....................................................15
  76.    3.7 Short-Cuts ......................................................17
  77.    3.8 VC Teardown .....................................................18
  78. 4. RSVP Control VC Management ..........................................19
  79.    4.1 Mixed data and control traffic ..................................19
  80.    4.2 Single RSVP VC per RSVP Reservation .............................20
  81.    4.3 Multiplexed point-to-multipoint RSVP VCs ........................20
  82.    4.4 Multiplexed point-to-point RSVP VCs .............................21
  83.    4.5 QoS for RSVP VCs ................................................21
  84.    4.6 Implementation Guidelines .......................................22
  85. 5. Encapsulation .......................................................22
  86.    5.1 Implementation Guidelines .......................................23
  87. 6. Security ............................................................23
  88. 7. Implementation Summary ..............................................23
  89.    7.1 Requirements ....................................................23
  90.    7.2 Default Behavior ................................................24
  91. 8. Future Work .........................................................25
  92. 9. Authors' Addresses ..................................................26
  93.  
  94.  
  95.  
  96.  
  97.  
  98.  
  99.  
  100.  
  101.  
  102.  
  103.  
  104.  
  105.  
  106.  
  107.  
  108.  
  109.  
  110.  
  111.  
  112.  
  113.  
  114.  
  115.  
  116.  
  117.  
  118.  
  119.  
  120.  
  121. Berson, Berger            Expiration: May 1997                  [Page 2]
  122.  
  123.  
  124.  
  125.  
  126. Internet Draft   Integrated Services with RSVP over ATM    November 1996
  127.  
  128.  
  129. 1. Introduction
  130.  
  131.    The Internet currently has one class of service normally referred to
  132.    as "best effort."  This service is typified by first-come, first-
  133.    serve scheduling at each hop in the network. Best effort service has
  134.    worked  well for electronic mail, World Wide Web (WWW) access, file
  135.    transfer (e.g. ftp), etc.  For real-time traffic such as voice and
  136.    video, the current Internet has performed well only across unloaded
  137.    portions of the network. In order to provide guaranteed quality
  138.    real-time traffic, new classes of service and a QoS signalling
  139.    protocol are being introduced in the Internet[7,18,17], while
  140.    retaining the existing best effort service.  The QoS signalling
  141.    protocol is RSVP[8,19], the Resource ReSerVation Protocol.
  142.  
  143.    ATM is rapidly becoming an important link layer technology.  One of
  144.    the important features of ATM technology is the ability to request a
  145.    point-to-point Virtual Circuit (VC) with a specified Quality of
  146.    Service (QoS). An additional feature of ATM technology is the ability
  147.    to request point-to-multipoint VCs with a specified QoS.  Point-to-
  148.    multipoint VCs allows leaf nodes to be added and removed from the VC
  149.    dynamically and so provide a mechanism for supporting IP multicast.
  150.    It is only natural that RSVP and the Internet Integrated Services
  151.    (IIS) model would like to utilize the QoS properties of any
  152.    underlying link layer including ATM
  153.  
  154.    Classical IP over ATM[11] has solved part of this problem, supporting
  155.    IP unicast best effort traffic over ATM. Classical IP over ATM is
  156.    based on a Logical IP Subnetwork (LIS), which is a separately
  157.    administered IP sub-network.  Hosts within a LIS communicate using
  158.    the ATM network, while hosts from different sub-nets communicate only
  159.    by going through an IP router (even though it may be possible to open
  160.    a direct VC between the two hosts over the ATM network).  Classical
  161.    IP over ATM provides an Address Resolution Protocol (ATMARP) for ATM
  162.    edge devices to resolve IP addresses to native ATM addresses.  For
  163.    any pair of IP/ATM edge devices (i.e. hosts or routers), a single VC
  164.    is created on demand and shared for all traffic between the two
  165.    devices.  A second part of the RSVP and IIS over ATM problem, IP
  166.    multicast, is close to being solved with MARS[1], the Multicast
  167.    Address Resolution Server.  MARS compliments ATMARP by allowing an IP
  168.    address to resolve into a list of native ATM addresses, rather than
  169.    just a single address.
  170.  
  171.    A key remaining issue for IP over ATM is the integration of RSVP
  172.    signalling and ATM signalling in support of the Internet Integrated
  173.    Services (IIS) model.  There are two main areas involved in
  174.    supporting the IIS model, QoS translation and VC management.  QoS
  175.    translation concerns mapping a QoS from the IIS model to a proper ATM
  176.    QoS, while VC management concentrates on how many VCs are needed and
  177.  
  178.  
  179.  
  180. Berson, Berger            Expiration: May 1997                  [Page 3]
  181.  
  182.  
  183.  
  184.  
  185. Internet Draft   Integrated Services with RSVP over ATM    November 1996
  186.  
  187.  
  188.    which traffic flows are routed over which VCs.  Mapping of IP QoS to
  189.    ATM QoS is the subject of a companion draft[16].
  190.  
  191.    This draft concentrates on VC management (and we assume in this draft
  192.    that the QoS for a single reserved flow can be acceptably translated
  193.    to an ATM QoS).  Two types of VCs need to be managed, data VCs which
  194.    handle the actual data traffic, and control VCs which handle the RSVP
  195.    signalling traffic.  Several VC management schemes for both data and
  196.    control VCs are described in this draft.  For each scheme, there are
  197.    two major issues - (1) heterogeneity and (2) dynamic behavior.
  198.    Heterogeneity refers to how requests for different QoS's are handled,
  199.    while dynamic behavior refers to how changes in QoS and changes in
  200.    multicast group membership are handled.  These schemes will be
  201.    evaluated in terms of the following metrics - (1) number of VCs
  202.    needed to implement the scheme, (2) bandwidth wasted due to duplicate
  203.    packets, and (3) flexibility in handling heterogeneity and dynamic
  204.    behavior.
  205.  
  206.    The general issues related to running RSVP[8,19] over ATM have been
  207.    covered in several papers including [4,5,13].  This document will
  208.    review key issues that must be addressed by any RSVP over ATM UNI
  209.    solution.  It will discuss advantages and disadvantages of different
  210.    methods for running RSVP over ATM.  It will also define default
  211.    behavior for implementations using ATM UNI3.x and 4.0. Default
  212.    behavior provides a baseline set of functionality, while allowing for
  213.    more sophisticated approaches.  We expect some vendors to also
  214.    provide some of the more sophisticated approaches described below,
  215.    and some networks to only make use of such approaches.
  216.  
  217.    1.1 Terms
  218.  
  219.       The terms "reservation" and "flow" are used in many contexts,
  220.       often with different meaning.  These terms are used in this
  221.       document with the following meaning:
  222.  
  223.  
  224.       o    Reservation is used in this document to refer to an RSVP
  225.            initiated request for resources.  RSVP initiates requests for
  226.            resources based on RESV message processing.  RESV messages
  227.            that simply refresh state do not trigger resource requests.
  228.            Resource requests may be made based on RSVP sessions and RSVP
  229.            reservation styles. RSVP styles dictate whether the reserved
  230.            resources are used by one sender or shared by multiple
  231.            senders.  See [8] for details of each. Each new request is
  232.            referred to in this document as an RSVP reservation, or
  233.            simply reservation.
  234.  
  235.       o    Flow is used to refer to the data traffic associated with a
  236.  
  237.  
  238.  
  239. Berson, Berger            Expiration: May 1997                  [Page 4]
  240.  
  241.  
  242.  
  243.  
  244. Internet Draft   Integrated Services with RSVP over ATM    November 1996
  245.  
  246.  
  247.            particular reservation.  The specific meaning of flow is RSVP
  248.            style dependent.  For shared style reservations, there is one
  249.            flow per session.  For distinct style reservations, there is
  250.            one flow per sender (per session).
  251.  
  252.    1.2 Assumptions
  253.  
  254.       The following assumptions are made:
  255.  
  256.  
  257.       o    Support for IPv4 and IPv6 best effort in addition to QoS
  258.  
  259.       o    Use RSVP with policy control as signalling protocol
  260.  
  261.       o    Assume UNI 3.x and 4.0 ATM services
  262.  
  263.       o    VCs initiation by sub-net senders
  264.  
  265.       1.2.1 IPv4 and IPv6
  266.  
  267.          Currently IPv4 is the standard protocol of the Internet which
  268.          now provides only best effort service.  We assume that best
  269.          effort service will continue to be supported while introducing
  270.          new types of service according to the IP Integrated Services
  271.          model.  We also assume that IPv6 will be supported as well as
  272.          IPv4.
  273.  
  274.       1.2.2 RSVP and Policy
  275.  
  276.          We assume RSVP as the Internet signalling protocol which is
  277.          described in [19].  The reader is assumed to be familiar with
  278.          [19].
  279.  
  280.          IP Integrated Services discriminates between users by providing
  281.          some users better service at the expense of others.  Policy
  282.          determines how preferential services are allocated while
  283.          allowing network operators maximum flexibility to provide
  284.          value-added services for the marketplace.  Mechanisms need to
  285.          be be provided to enforce access policies.  These mechanisms
  286.          may include such things as permissions and/or billing.
  287.  
  288.          For scaling reasons, policies based on bilateral agreements
  289.          between neighboring providers are considered.  The bilateral
  290.          model has similar scaling properties to multicast while
  291.          maintaining no global information.  Policy control is currently
  292.          being developed for RSVP (see [10] for details).
  293.  
  294.  
  295.  
  296.  
  297.  
  298. Berson, Berger            Expiration: May 1997                  [Page 5]
  299.  
  300.  
  301.  
  302.  
  303. Internet Draft   Integrated Services with RSVP over ATM    November 1996
  304.  
  305.  
  306.       1.2.3 ATM
  307.  
  308.          We assume ATM defined by UNI 3.x and 4.0.  ATM provides both
  309.          point-to-point and point-to-multipoint Virtual Circuits (VCs)
  310.          with a specified Quality of Service (QoS).  ATM provides both
  311.          Permanent Virtual Circuits (PVCs) and Switched Virtual Circuits
  312.          (SVCs).  In the Permanent Virtual Circuit (PVC) environment,
  313.          PVCs are typically used as point-to-point link replacements.
  314.          So the Integrated Services support issues are similar to
  315.          point-to-point links.  This draft describes schemes for
  316.          supporting Integrated Services using SVCs.
  317.  
  318.       1.2.4 VC Initiation
  319.  
  320.          There is an apparent mismatch between RSVP and ATM.
  321.          Specifically, RSVP control is receiver oriented and ATM control
  322.          is sender oriented.  This initially may seem like a major
  323.          issue, but really is not.  While RSVP reservation (RESV)
  324.          requests are generated at the receiver, actual allocation of
  325.          resources takes place at the sub-net sender.
  326.  
  327.          For data flows, this means that sub-net senders will establish
  328.          all QoS VCs and the sub-net receiver must be able to accept
  329.          incoming QoS VCs.  These restrictions are consistent with RSVP
  330.          version 1 processing rules and allow senders to use different
  331.          flow to VC mappings and even different QoS renegotiation
  332.          techniques without interoperability problems.  All RSVP over
  333.          ATM approaches that have VCs initiated and controlled by the
  334.          sub-net senders will interoperate.  Figure  shows this model of
  335.          data flow VC initiation.
  336.  
  337.          [Figure goes here]
  338.                         Figure 1: Data Flow VC Initiation
  339.  
  340.  
  341.          The use of the reverse path provided by point-to-point VCs by
  342.          receivers is for further study. Receivers initiating VCs via
  343.          the reverse path mechanism provided by point-to-point VCs is
  344.          also for future study.
  345.  
  346. 2. Policy
  347.  
  348.    RSVP allows for local policy control [10] as well as admission
  349.    control.  Thus a user can request a reservation with a specific QoS
  350.    and with a policy object that, for example, offers to pay for
  351.    additional costs setting up a new reservation.  The policy module at
  352.    the entry to a provider can decide how to satisfy that request -
  353.    either by merging the request in with an existing reservation or by
  354.  
  355.  
  356.  
  357. Berson, Berger            Expiration: May 1997                  [Page 6]
  358.  
  359.  
  360.  
  361.  
  362. Internet Draft   Integrated Services with RSVP over ATM    November 1996
  363.  
  364.  
  365.    creating a new reservation for this (and perhaps other) users.  This
  366.    policy can be on a per user-provider basis where a user and a
  367.    provider have an agreement on the type of service offered, or on a
  368.    provider-provider basis, where two providers have such an agreement.
  369.    With the ability to do local policy control, providers can offer
  370.    services best suited to their own resources and their customers
  371.    needs.
  372.  
  373.    Policy is expected to be provided as a generic API which will return
  374.    values indicating what action should be taken for a specific
  375.    reservation request.  The API is expected to have access to the
  376.    reservation tables with the QoS for each reservation.  The RSVP
  377.    Policy and Integrity objects will be passed to the policy() call.
  378.    Four possible return values are expected.  The request can be
  379.    rejected.  The request can be accepted as is.  The request can be
  380.    accepted but at a different QoS.  The request can cause a change of
  381.    QoS of an existing reservation.  The information returned from this
  382.    call will be used to call the admission control interface.
  383.  
  384.    2.1 Implementation Guidelines
  385.  
  386.       Currently, the contents of policy data objects is not specified.
  387.       So specifics of policy implementation are not defined at this
  388.       time.
  389.  
  390. 3. Data VC Management
  391.  
  392.    Any RSVP over ATM implementation must map RSVP and RSVP associated
  393.    data flows to ATM Virtual Circuits (VCs). LAN Emulation [2],
  394.    Classical IP [11] and, more recently, NHRP [12] discuss mapping IP
  395.    traffic onto ATM SVCs, but they only cover a single QoS class, i.e.,
  396.    best effort traffic. When QoS is introduced, VC mapping must be
  397.    revisited. For RSVP controlled QoS flows, one issue is VCs to use for
  398.    QoS data flows.
  399.  
  400.    In the Classic IP over ATM and current NHRP models, a single point-
  401.    to-point VC is used for all traffic between two ATM attached hosts
  402.    (routers and end-stations).  It is likely that such a single VC will
  403.    not be adequate or optimal when supporting data flows with multiple
  404.    QoS types. RSVP's basic purpose is to install support for flows with
  405.    multiple QoS types, so it is essential for any RSVP over ATM solution
  406.    to address VC usage for QoS data flows.
  407.  
  408.    This section describes issues and methods for management of VCs
  409.    associated with QoS data flows. When establishing and maintaining
  410.    VCs, the sub-net sender will need to deal with several complicating
  411.    factors including multiple QoS reservations, requests for QoS
  412.    changes, ATM short-cuts, and several multicast specific issues.  The
  413.  
  414.  
  415.  
  416. Berson, Berger            Expiration: May 1997                  [Page 7]
  417.  
  418.  
  419.  
  420.  
  421. Internet Draft   Integrated Services with RSVP over ATM    November 1996
  422.  
  423.  
  424.    multicast specific issues result from the nature of ATM connections.
  425.    The key multicast related issues are heterogeneity, data
  426.    distribution, receiver transitions, and end-point identification.
  427.  
  428.    3.1 Reservation to VC Mapping
  429.  
  430.       There are various approaches available for mapping reservations on
  431.       to VCs.  A distinguishing attribute of all approaches is how
  432.       reservations are combined on to individual VCs.  When mapping
  433.       reservations on to VCs, individual VCs can be used to support a
  434.       single reservation, or reservation can be combined with others on
  435.       to "aggregate" VCs.  In the first case, each reservation will be
  436.       supported by one or more VCs.  Multicast reservation requests may
  437.       translate into the setup of multiple VCs as is described in more
  438.       detail in section 3.2.  Unicast reservation requests will always
  439.       translate into the setup of a single QoS VC.  In both cases, each
  440.       VC will only carry data associated with a single reservation.  The
  441.       greatest benefit if this approach is ease of implementation, but
  442.       it comes at the cost of increased (VC) setup time and the
  443.       consumption of  greater number of VC and associated resources.
  444.  
  445.       We refer to the  other case, when reservations are not combined,
  446.       as the "aggregation" model.  With this model, large VCs could be
  447.       set up between IP routers and hosts in an ATM network.  These VCs
  448.       could be managed much like IP Integrated Service (IIS) point-to-
  449.       point links (e.g. T-1, DS-3) are managed now.  Traffic from
  450.       multiple sources over multiple RSVP sessions might be multiplexed
  451.       on the same VC.  This approach has a number of advantages.  First,
  452.       there is typically no signalling latency as VCs would be in
  453.       existence when the traffic started flowing, so no time is wasted
  454.       in setting up VCs.  Second, the heterogeneity problem (section
  455.       3.2) has been reduced to a solved problem.  Finally, the dynamic
  456.       QoS problem (section 3.6) for ATM has also been reduced to a
  457.       solved problem.  This approach can be used with point-to-point and
  458.       point-to-multipoint VCs.  The problem with the aggregation
  459.       approach is that the choice of what QoS to use for which of the
  460.       VCs is difficult, but is made easier since the VCs can be changed
  461.       as needed.  The advantages of this scheme makes this approach an
  462.       item for high priority study.
  463.  
  464.       3.1.1 Implementation Guidelines
  465.  
  466.          While it is possible and even desirable to send multiple flows
  467.          and multiple distinct reservations (FF) over single VCs,
  468.          implementation of such approaches is a matter for further
  469.          study. So, RSVP over ATM implementations must, by default, use
  470.          a single VC to support each RSVP reservation. Implementations
  471.          may also support an aggregation approach.
  472.  
  473.  
  474.  
  475. Berson, Berger            Expiration: May 1997                  [Page 8]
  476.  
  477.  
  478.  
  479.  
  480. Internet Draft   Integrated Services with RSVP over ATM    November 1996
  481.  
  482.  
  483.    3.2 Heterogeneity
  484.  
  485.       Heterogeneity occurs when receivers request different QoS's within
  486.       a single session.  This means that the amount of requested
  487.       resources differs on a per next hop basis.  A related type of
  488.       heterogeneity occurs due to best-effort receivers. In any IP
  489.       multicast group, it is possible that some receivers will request
  490.       QoS (via RSVP) and some receivers will not.  Both types of
  491.       heterogeneity are shown in figure .  In shared media, like
  492.       Ethernet, receivers that have not requested resources can
  493.       typically be given identical service to those that have without
  494.       complications. This is not the case with ATM.  In ATM networks,
  495.       any additional end-points of a VC must be explicitly added.  There
  496.       may be costs associated with adding the best-effort receiver, and
  497.       there might not be adequate resources.  An RSVP over ATM solution
  498.       will need to support heterogeneous receivers even though ATM does
  499.       not currently provide such support directly.
  500.  
  501.       [Figure goes here]
  502.                     Figure 2: Types of Multicast Receivers
  503.  
  504.  
  505.  
  506.       There are multiple models for supporting RSVP heterogeneity over
  507.       ATM.  Section 3.2.1 examines the multiple VCs per RSVP reservation
  508.       (or full heterogeneity) model where a single reservation can be
  509.       forwarded into several VCs each with a different QoS.  Section
  510.       3.2.2 presents a limited heterogeneity model where exactly one QoS
  511.       VC is used along with a best effort VC.  Section 3.2.3 examines
  512.       the VC per RSVP reservation (or homogeneous) model, where each
  513.       RSVP reservation is mapped to a single ATM VC.
  514.  
  515.       3.2.1 Full Heterogeneity Model
  516.  
  517.          We define the "full heterogeneity" model as providing a
  518.          separate VC for each distinct QoS for a multicast session
  519.          including best effort and one or more QoS's.  This is shown in
  520.          figure  where S1 is a sender, R1-R3 are receivers, r1-r4 are IP
  521.          routers, and s1-s2 are ATM switches.  Receivers R1 and R3 make
  522.          reservations with different QoS while R2 is a best effort
  523.          receiver.  Three point-to-multipoint VCs are created for this
  524.          situation, each with the requested QoS.  Note that any leafs
  525.          requesting QoS 1 or QoS 2 would be added to the existing QoS
  526.          VC.
  527.  
  528.  
  529.  
  530.  
  531.  
  532.  
  533.  
  534. Berson, Berger            Expiration: May 1997                  [Page 9]
  535.  
  536.  
  537.  
  538.  
  539. Internet Draft   Integrated Services with RSVP over ATM    November 1996
  540.  
  541.  
  542.          [Figure goes here]
  543.                           Figure 3: Full heterogeneity
  544.  
  545.  
  546.  
  547.          Note that while full heterogeneity gives users exactly what
  548.          they request, it requires more resources of the network than
  549.          other possible approaches.  In figure , three copies of each
  550.          packet are sent on the link from r1 to s1.  Two copies of each
  551.          packet are then sent from s1 to s2.  The exact amount of
  552.          bandwidth used for duplicate traffic depends on the network
  553.          topology and group membership.
  554.  
  555.       3.2.2 Limited Heterogeneity Model
  556.  
  557.          We define the "limited heterogeneity" model as the case where
  558.          the receivers of a multicast session are limited to use either
  559.          best effort service or a single alternate quality of service.
  560.          The alternate QoS can be chosen either by higher level
  561.          protocols or by dynamic renegotiation of QoS as described
  562.          below.
  563.  
  564.          [Figure goes here]
  565.                         Figure 4: Limited heterogeneity
  566.  
  567.  
  568.  
  569.          In order to support limited heterogeneity, each ATM edge device
  570.          participating in a session would need at most two VCs.  One VC
  571.          would be a point-to-multipoint best effort service VC and would
  572.          serve all best effort service IP destinations for this RSVP
  573.          session.  The other VC would be a point to multipoint VC with
  574.          QoS and would serve all IP destinations for this RSVP session
  575.          that have an RSVP reservation established. This is shown in
  576.          figure  where there are three receivers, R2 requesting best
  577.          effort service, while R1 and R3 request distinct reservations.
  578.          Whereas, in figure , R1 and R3 have a separate VC, so each
  579.          receives precisely the resources requested, in figure , R1 and
  580.          R3 share the same VC (using the maximum of R1 and R3 QoS)
  581.          across the ATM network.  Note that though the VC and hence the
  582.          QoS for R1 and R3 are the same within the ATM cloud, the
  583.          reservation outside the ATM cloud (from router r4 to receiver
  584.          R3) uses the QoS actually requested by R3.
  585.  
  586.          As with full heterogeneity, a disadvantage of the limited
  587.          heterogeneity scheme is that each packet will need to be
  588.          duplicated at the network layer and one copy sent into each of
  589.          the 2 VCs. Again, the exact amount of excess traffic will
  590.  
  591.  
  592.  
  593. Berson, Berger            Expiration: May 1997                 [Page 10]
  594.  
  595.  
  596.  
  597.  
  598. Internet Draft   Integrated Services with RSVP over ATM    November 1996
  599.  
  600.  
  601.          depend on the network topology and group membership.  Looking
  602.          at figure , there are two VCs going from router r1 to switch
  603.          s1.  Two copies of every packet will traverse the r1-s1 link.
  604.          Another disadvantage of limited heterogeneity is that a
  605.          reservation request can be rejected even when the resources are
  606.          available.  This occurs when a new receiver requests a larger
  607.          QoS.  If any of the existing QoS VC end-points cannot upgrade
  608.          to the new QoS, then the new reservation fails though the
  609.          resources exist for the new receiver.
  610.  
  611.       3.2.3 Homogeneous and Modified Homogeneous Models
  612.  
  613.          We define the "homogeneous" model as the case where all
  614.          receivers of a multicast session use a single quality of
  615.          service VC. Best-effort receivers also use the single RSVP
  616.          triggered QoS VC.  The single VC can be a point-to-point or
  617.          point-to-multipoint as appropriate.  The QoS VC is sized to
  618.          provide the maximum resources requested by all RSVP next-hops.
  619.  
  620.          This model matches the way the current RSVP specification
  621.          addresses heterogeneous requests. The current processing rules
  622.          and traffic control interface describe a model where the
  623.          largest requested reservation for a specific outgoing interface
  624.          is used in resource allocation, and traffic is transmitted at
  625.          the higher rate to all next-hops. This approach would be the
  626.          simplest method for RSVP over ATM implementations.
  627.  
  628.          While this approach is simple to implement, providing better
  629.          than best-effort service may actually be the opposite of what
  630.          the user desires since in providing ATM QoS. There may be
  631.          charges incurred or resources that are wrongfully allocated.
  632.          There are two specific problems.  The first problem is that a
  633.          user making a small or no reservation would share a QoS VC
  634.          resources without making (and perhaps paying for) an RSVP
  635.          reservation.  The second problem is that a receiver may not
  636.          receive any data.  This may occur when there is insufficient
  637.          resources to add a receiver.  The rejected user would not be
  638.          added to the single VC and it would not even receive traffic on
  639.          a best effort basis.
  640.  
  641.          Not sending data traffic to best-effort receivers because of
  642.          another receiver's RSVP request is clearly unacceptable.  The
  643.          previously described limited heterogeneous model ensures that
  644.          data is always sent to both QoS and best-effort receivers, but
  645.          it does so by requiring replication of data at the sender in
  646.          all cases.  It is possible to extend the homogeneous model to
  647.          both ensure that data is always sent to best-effort receivers
  648.          and also to avoid replication in the normal case.  This
  649.  
  650.  
  651.  
  652. Berson, Berger            Expiration: May 1997                 [Page 11]
  653.  
  654.  
  655.  
  656.  
  657. Internet Draft   Integrated Services with RSVP over ATM    November 1996
  658.  
  659.  
  660.          extension is to add special handling for the case where a
  661.          best-effort receiver cannot be added to the QoS VC.  In this
  662.          case, a best-effort VC can be established to any receivers that
  663.          could not be added to the QoS VC.  Only in this special error
  664.          case would senders be required to replicate data.  We define
  665.          this approach as the "modified homogeneous" model.
  666.  
  667.       3.2.4 Implementation Guidelines
  668.  
  669.          Multiple options for mapping reservations onto VCs have been
  670.          discussed.  No matter which model or combination of models is
  671.          used by an implementation, implementations must not normally
  672.          send more than one copy of a particular data packet to a
  673.          particular next-hop (ATM end-point).  Some transient over
  674.          transmission is acceptable, but only during VC setup and
  675.          transition.  Implementations must also ensure that data traffic
  676.          is sent to best-effort receivers.  Data traffic may be sent to
  677.          best-effort receivers via best-effort or QoS VCs as is
  678.          appropriate for the implemented model.  In all cases,
  679.          implementations must not create VCs in such a way that data
  680.          cannot be sent to best-effort receivers.  This includes the
  681.          case of not being able to add a best-effort receiver to a QoS
  682.          VC,  but does not include the case where best-effort VCs cannot
  683.          be setup. The failure to establish best-effort VCs is
  684.          considered to be a general IP over ATM failure and is therefore
  685.          beyond the scope of this document.
  686.  
  687.          The key issue to be addressed by an implementation is providing
  688.          requested QoS downstream. One of or some combination of the
  689.          previously discussed models may be used to provide requested
  690.          QoS.  Currently, the aggregation approach is being studied, so
  691.          RSVP over ATM implementations are limited to the other models.
  692.          Unfortunately, none of the described models is the right answer
  693.          for all cases.  For some networks, e.g. public WANs, it is
  694.          likely that the limited heterogeneous model or a hybrid
  695.          limited-full heterogeneous model will be desired.  In other
  696.          networks, e.g. LANs, it is likely that a the modified
  697.          homogeneous model will be desired.
  698.  
  699.          Since there is not one model that satisfies all cases,
  700.          implementations must, by default, implement either the limited
  701.          heterogeneity model or the modified homogeneous model.
  702.          Implementations should support both approaches and provide the
  703.          ability to select which method is actually used, but are not
  704.          required to do so.  Implementations, may also support
  705.          heterogeneity through some other mechanism, e.g., using
  706.          multiple appropriately sized VCs.
  707.  
  708.  
  709.  
  710.  
  711. Berson, Berger            Expiration: May 1997                 [Page 12]
  712.  
  713.  
  714.  
  715.  
  716. Internet Draft   Integrated Services with RSVP over ATM    November 1996
  717.  
  718.  
  719.    3.3 Multicast End-Point Identification
  720.  
  721.       Implementations must be able to identify ATM end-points
  722.       participating in an IP multicast group.  The ATM end-points will
  723.       be IP multicast receivers and/or next-hops.  Both QoS and best-
  724.       effort end-points must be identified.  RSVP next-hop information
  725.       will provide QoS end-points, but not best-effort end-points.
  726.  
  727.       Another issue is identifying end-points of multicast traffic
  728.       handled by non-RSVP capable next-hops.  In this case a PATH
  729.       message travels through a non-RSVP egress router on the way to the
  730.       next hop RSVP node.  When the next hop RSVP node sends a RESV
  731.       message it may arrive at the source over a different route than
  732.       what the data is using.  The source will get the RESV message, but
  733.       will not know which egress router needs the QoS.  For unicast
  734.       sessions, there is no problem since the ATM end-point will be the
  735.       IP next-hop router.  Unfortunately, multicast routing may not be
  736.       able to uniquely identify the IP next-hop router.  So it is
  737.       possible that a multicast end-point can not be identified.
  738.  
  739.       3.3.1 Implementation Guidelines
  740.  
  741.          In the most common case, MARS will be used to identify all
  742.          end-points of a multicast group.  In the router to router case,
  743.          a multicast routing protocol may provide all next-hops for a
  744.          particular multicast group.  In either case, RSVP over ATM
  745.          implementations must obtain a full list of end-points, both QoS
  746.          and non-QoS, using the appropriate mechanisms.  The full list
  747.          can be compared against the RSVP identified end-points to
  748.          determine the list of best-effort receivers.
  749.  
  750.          There is no straightforward solution to uniquely identifying
  751.          end-points of multicast traffic handled by non-RSVP next hops.
  752.          The preferred solution is to use multicast routing protocols
  753.          that support unique end-point identification.  In cases where
  754.          such routing protocols are unavailable, all IP routers that
  755.          will be used to support RSVP over ATM should support RSVP. To
  756.          ensure proper behavior, implementations should, by default,
  757.          only establish RSVP-initiated VCs to RSVP capable end-points.
  758.  
  759.    3.4 Multicast Data Distribution
  760.  
  761.       Two models are planned for IP multicast data distribution over
  762.       ATM.  In one model, senders establish point-to-multipoint VCs to
  763.       all ATM attached destinations, and data is then sent over these
  764.       VCs.  This model is often called "multicast mesh" or "VC mesh"
  765.       mode distribution.  In the second model, senders send data over
  766.       point-to-point VCs to a central point and the central point relays
  767.  
  768.  
  769.  
  770. Berson, Berger            Expiration: May 1997                 [Page 13]
  771.  
  772.  
  773.  
  774.  
  775. Internet Draft   Integrated Services with RSVP over ATM    November 1996
  776.  
  777.  
  778.       the data onto point-to-multipoint VCs that have been established
  779.       to all receivers of the IP multicast group.  This model is often
  780.       referred to as "multicast server" mode distribution. Figure  shows
  781.       data flow for both modes of IP multicast data distribution.  RSVP
  782.       over ATM solutions must ensure that IP multicast data is
  783.       distributed with appropriate QoS.
  784.  
  785.       [Figure goes here]
  786.               Figure 5: IP Multicast Data Distribution Over ATM
  787.  
  788.  
  789.  
  790.       3.4.1 Implementation Guidelines
  791.  
  792.          In the Classical IP context, multicast server support is
  793.          provided via MARS[1].  MARS does not currently provide a way to
  794.          communicate QoS requirements to a MARS multicast server.
  795.          Therefore, RSVP over ATM implementations must, by default,
  796.          support "mesh-mode" distribution for RSVP controlled multicast
  797.          flows.  When using multicast servers that do not support QoS
  798.          requests, a sender must set the service, not global, break
  799.          bit(s).
  800.  
  801.    3.5 Receiver Transitions
  802.  
  803.       When setting up a point-to-multipoint VCs there will be a time
  804.       when some receivers have been added to a QoS VC and some have not.
  805.       During such transition times it is possible to start sending data
  806.       on the newly established VC.  The issue is when to start send data
  807.       on the new VC.  If data is sent both on the new VC and the old VC,
  808.       then data will be delivered with proper QoS to some receivers and
  809.       with the old QoS to all receivers.  This means the QoS receivers
  810.       would get duplicate data.  If data is sent just on the new QoS VC,
  811.       the receivers that have not yet been added will lose information.
  812.       So, the issue comes down to whether to send to both the old and
  813.       new VCs, or to send to just one of the VCs.  In one case duplicate
  814.       information will be received, in the other some information may
  815.       not be received.  This issue needs to be considered for three
  816.       cases: when establishing the first QoS VC, when establishing a VC
  817.       to support a QoS change, and when adding a new end-point to an
  818.       already established QoS VC.
  819.  
  820.       The first two cases are very similar.  It both, it is possible to
  821.       send data on the partially completed new VC, and the issue of
  822.       duplicate versus lost information is the same.
  823.  
  824.       The last case is when an end-point must be added to an existing
  825.       QoS VC.  In this case the end-point must be both added to the QoS
  826.  
  827.  
  828.  
  829. Berson, Berger            Expiration: May 1997                 [Page 14]
  830.  
  831.  
  832.  
  833.  
  834. Internet Draft   Integrated Services with RSVP over ATM    November 1996
  835.  
  836.  
  837.       VC and dropped from a best-effort VC.  The issue is which to do
  838.       first.  If the add is first requested, then the end-point may get
  839.       duplicate information.  If the drop is requested first, then the
  840.       end-point may loose information.
  841.  
  842.       3.5.1 Implementation Guidelines
  843.  
  844.          In order to ensure predictable behavior and delivery of data to
  845.          all receivers, data can only be sent on a new VCs once all
  846.          parties have been added.  This will ensure that all data is
  847.          only delivered once to all receivers.  This approach does not
  848.          quite apply for the last case. In the last case, the add should
  849.          be completed first, then the drop.  This means that receivers
  850.          must be prepared to receive some duplicate packets at times of
  851.          QoS setup.
  852.  
  853.    3.6 Dynamic QoS
  854.  
  855.       RSVP provides dynamic quality of service (QoS) in that the
  856.       resources that are requested may change at any time.  There are
  857.       several common reasons for a change of reservation QoS.  First, an
  858.       existing receiver can request a new larger (or smaller) QoS.
  859.       Second, a sender may change its traffic specification (TSpec),
  860.       which can trigger a change in the reservation requests of the
  861.       receivers.  Third, a new sender can start sending to a multicast
  862.       group with a larger traffic specification than existing senders,
  863.       triggering larger reservations.  Finally, a new receiver can make
  864.       a reservation that is larger than existing reservations. If the
  865.       merge node for the larger reservation is an ATM edge device, a new
  866.       larger reservation must be set up across the ATM network.
  867.  
  868.       Since ATM service, as currently defined in UNI 3.x and UNI 4.0,
  869.       does not allow renegotiating the QoS of a VC, dynamically changing
  870.       the reservation means creating a new VC with the new QoS, and
  871.       tearing down an established VC.  Tearing down a VC and setting up
  872.       a new VC in ATM are complex operations that involve a non-trivial
  873.       amount of processor time, and may have a substantial latency.
  874.  
  875.       There are several options for dealing with this mismatch in
  876.       service. A specific approach will need to be a part of any RSVP
  877.       over ATM solution.
  878.  
  879.       3.6.1 Implementation Guidelines
  880.  
  881.          The default method for supporting changes in RSVP reservations
  882.          is to attempt to replace an existing VC with a new
  883.          appropriately sized VC. During setup of the replacement VC, the
  884.          old VC must be left in place unmodified. The old VC is left
  885.  
  886.  
  887.  
  888. Berson, Berger            Expiration: May 1997                 [Page 15]
  889.  
  890.  
  891.  
  892.  
  893. Internet Draft   Integrated Services with RSVP over ATM    November 1996
  894.  
  895.  
  896.          unmodified to minimize interruption of QoS data delivery.  Once
  897.          the replacement VC is established, data transmission is shifted
  898.          to the new VC, and the old VC is then closed.
  899.  
  900.          If setup of the replacement VC fails, then the old QoS VC
  901.          should continue to be used. When the new reservation is greater
  902.          than the old reservation, the reservation request should be
  903.          answered with an error. When the new reservation is less than
  904.          the old reservation, the request should be treated as if the
  905.          modification was successful. While leaving the larger
  906.          allocation in place is suboptimal, it maximizes delivery of
  907.          service to the user.  Implementations should retry replacing
  908.          the too large VC after some appropriate elapsed time.
  909.  
  910.          One additional issue is that only one QoS change can be
  911.          processed at one time per reservation. If the (RSVP) requested
  912.          QoS is changed while the first replacement VC is still being
  913.          setup, then the replacement VC is released and the whole VC
  914.          replacement process is restarted.
  915.  
  916.          To limit the number of changes and to avoid excessive
  917.          signalling load, implementations may limit the number of
  918.          changes that will be processed in a given period.  One
  919.          implementation approach would have each ATM edge device
  920.          configured with a time parameter tau (which can change over
  921.          time) that gives the minimum amount of time the edge device
  922.          will wait between successive changes of the QoS of a particular
  923.          VC.  Thus if the QoS of a VC is changed at time t, all messages
  924.          that would change the QoS of that VC that arrive before time
  925.          t+tau would be queued.  If several messages changing the QoS of
  926.          a VC arrive during the interval, redundant messages can be
  927.          discarded.  At time t+tau, the remaining change(s) of QoS, if
  928.          any, can be executed.
  929.  
  930.          The sequence of events for a single VC would be
  931.  
  932.  
  933.          1.   Wait if timer is active
  934.  
  935.          2.   Establish VC with new QoS
  936.  
  937.          3.   Remap data traffic to new VC
  938.  
  939.          4.   Tear down old VC
  940.  
  941.          5.   Activate timer
  942.  
  943.          There is an interesting interaction between heterogeneous
  944.  
  945.  
  946.  
  947. Berson, Berger            Expiration: May 1997                 [Page 16]
  948.  
  949.  
  950.  
  951.  
  952. Internet Draft   Integrated Services with RSVP over ATM    November 1996
  953.  
  954.  
  955.          reservations and dynamic QoS.  In the case where a RESV message
  956.          is received from a new next-hop and the requested resources are
  957.          larger than any existing reservation, both dynamic QoS and
  958.          heterogeneity need to be addressed.  A key issue is whether to
  959.          first add the new next-hop or to change to the new QoS.  This
  960.          is a fairly straight forward special case.  Since the older,
  961.          smaller reservation does not support the new next-hop, the
  962.          dynamic QoS process should be initiated first. Since the new
  963.          QoS is only needed by the new next-hop, it should be the first
  964.          end-point of the new VC.  This way signalling is minimized when
  965.          the setup to the new next-hop fails.
  966.  
  967.    3.7 Short-Cuts
  968.  
  969.       Short-cuts [12] allow ATM attached routers and hosts to directly
  970.       establish point-to-point VCs across LIS boundaries, i.e., the VC
  971.       end-points are on different IP sub-nets.  The ability for short-
  972.       cuts and RSVP to interoperate has been raised as a general
  973.       question.  The area of concern is the ability to handle asymmetric
  974.       short-cuts.  Specifically how RSVP can handle the case where a
  975.       downstream short-cut may not have a matching upstream short-cut.
  976.       In this case, which is shown in figure , PATH and RESV messages
  977.       following different paths.
  978.  
  979.       [Figure goes here]
  980.        Figure 6: Asymmetric RSVP Message Forwarding With ATM Short-Cuts
  981.  
  982.  
  983.  
  984.       Examination of RSVP shows that the protocol already includes
  985.       mechanisms that will support short-cuts.  The mechanism is the
  986.       same one used to support RESV messages arriving at the wrong
  987.       router and the wrong interface.  The key aspect of this mechanism
  988.       is RSVP only processing messages that arrive at the proper
  989.       interface and RSVP forwarding of messages that arrive on the wrong
  990.       interface.  The proper interface is indicated in the NHOP object
  991.       of the message.  So, existing RSVP mechanisms will support
  992.       asymmetric short-cuts.
  993.  
  994.       The short-cut model of VC establishment still poses several issues
  995.       when running with RSVP. The major issues are dealing with
  996.       established best-effort short-cuts, when to establish short-cuts,
  997.       and QoS only short-cuts. These issues will need to be addressed by
  998.       RSVP implementations.
  999.  
  1000.  
  1001.  
  1002.  
  1003.  
  1004.  
  1005.  
  1006. Berson, Berger            Expiration: May 1997                 [Page 17]
  1007.  
  1008.  
  1009.  
  1010.  
  1011. Internet Draft   Integrated Services with RSVP over ATM    November 1996
  1012.  
  1013.  
  1014.       3.7.1 Implementation Guidelines
  1015.  
  1016.          The key issue to be addressed by any RSVP over ATM solution is
  1017.          when to establish a short-cut for a QoS data flow. The default
  1018.          behavior is to simply follow best-effort traffic. When a
  1019.          short-cut has been established for best-effort traffic to a
  1020.          destination or next-hop, that same end-point should be used
  1021.          when setting up RSVP triggered VCs for QoS traffic to the same
  1022.          destination or next-hop. This will happen naturally when PATH
  1023.          messages are forwarded over the best-effort short-cut.  Note
  1024.          that in this approach when best-effort short-cuts are never
  1025.          established, RSVP triggered QoS short-cuts will also never be
  1026.          established.
  1027.  
  1028.    3.8 VC Teardown
  1029.  
  1030.       RSVP can identify from either explicit messages or timeouts when a
  1031.       data VC is no longer needed.  Therefore, data VCs set up to
  1032.       support RSVP controlled flows should only be released at the
  1033.       direction of RSVP. VCs must not be timed out due to inactivity by
  1034.       either the VC initiator or the VC receiver.   This conflicts with
  1035.       VCs timing out as described in RFC 1755[14], section 3.4 on VC
  1036.       Teardown.  RFC 1755 recommends tearing down a VC that is inactive
  1037.       for a certain length of time. Twenty minutes is recommended. This
  1038.       timeout is typically implemented at both the VC initiator and the
  1039.       VC receiver. Although, section 3.1 of the update to RFC 1755[15]
  1040.       states that inactivity timers must not be used at the VC receiver.
  1041.  
  1042.       When this timeout occurs for an RSVP initiated VC, a valid VC with
  1043.       QoS will be torn down unexpectedly.  While this behavior is
  1044.       acceptable for best-effort traffic, it is important that RSVP
  1045.       controlled VCs not be torn down.  If there is no choice about the
  1046.       VC being torn down, the RSVP daemon must be notified, so a
  1047.       reservation failure message can be sent.
  1048.  
  1049.       3.8.1 Implementation Guidelines
  1050.  
  1051.          For VCs initiated at the request of RSVP, the configurable
  1052.          inactivity timer mentioned in [14] must be set to "infinite".
  1053.          Setting the inactivity timer value at the VC initiator should
  1054.          not be problematic since the proper value can be relayed
  1055.          internally at the originator.
  1056.  
  1057.          Setting the inactivity timer at the VC receiver is more
  1058.          difficult, and would require some mechanism to signal that an
  1059.          incoming VC was RSVP initiated.  To avoid this complexity and
  1060.          to conform to [15], implementations must not use an inactivity
  1061.          timer to clear received connections.
  1062.  
  1063.  
  1064.  
  1065. Berson, Berger            Expiration: May 1997                 [Page 18]
  1066.  
  1067.  
  1068.  
  1069.  
  1070. Internet Draft   Integrated Services with RSVP over ATM    November 1996
  1071.  
  1072.  
  1073. 4. RSVP Control VC Management
  1074.  
  1075.    One last important issue is providing a data path for the RSVP
  1076.    messages themselves.  There are two main types of messages in RSVP,
  1077.    PATH and RESV.  PATH messages are sent to a multicast address, while
  1078.    RESV messages are sent to a unicast address.  Other RSVP messages are
  1079.    handled similar to either PATH or RESV [Note 1] So ATM VCs used for
  1080.    RSVP signalling messages need to provide both unicast and multicast
  1081.    functionality.
  1082.  
  1083.    There are several different approaches for how to assign VCs to use
  1084.    for RSVP signalling messages.  The main approaches are:
  1085.  
  1086.    o    use same VC as data
  1087.  
  1088.    o    single VC per session
  1089.  
  1090.    o    single point-to-multipoint VC multiplexed among sessions
  1091.  
  1092.    o    multiple point-to-point VCs multiplexed among sessions
  1093.  
  1094.    There are several different issues that affect the choice of how to
  1095.    assign VCs for RSVP signalling.  One issue is the number of
  1096.    additional VCs needed for RSVP signalling.  Related to this issue is
  1097.    the degree of multiplexing on the RSVP VCs.  In general more
  1098.    multiplexing means less VCs.  An additional issue is the latency in
  1099.    dynamically setting up new RSVP signalling VCs.  A final issue is
  1100.    complexity of implementation.  The remainder of this section
  1101.    discusses the issues and tradeoffs among these different approaches
  1102.    and suggests guidelines for when to use which alternative.
  1103.  
  1104.    4.1 Mixed data and control traffic
  1105.  
  1106.       In this scheme RSVP signalling messages are sent on the same VCs
  1107.       as is the data traffic.  The main advantage of this scheme is that
  1108.       no additional VCs are needed beyond what is needed for the data
  1109.       traffic.  An additional advantage is that there is no ATM
  1110.       signalling latency for PATH messages (which follow the same
  1111.       routing as the data messages).  However there can be a major
  1112.       problem when data traffic on a VC is nonconforming.  With
  1113.       nonconforming traffic, RSVP signalling messages may be dropped.
  1114.       While RSVP is resilient to a moderate level of dropped messages,
  1115.       excessive drops would lead to repeated tearing down and re-
  1116.       establishing QoS VCs, a very undesirable behavior for ATM.  Due to
  1117.       these problems, this is not a good choice for providing RSVP
  1118. _________________________
  1119. [Note 1] This can be slightly more complicated for RERR messages
  1120.  
  1121.  
  1122.  
  1123.  
  1124. Berson, Berger            Expiration: May 1997                 [Page 19]
  1125.  
  1126.  
  1127.  
  1128.  
  1129. Internet Draft   Integrated Services with RSVP over ATM    November 1996
  1130.  
  1131.  
  1132.       signalling messages, even though the number of VCs needed for this
  1133.       scheme is minimized.
  1134.  
  1135.       One variation of this scheme is to use the best effort data path
  1136.       for signalling traffic.  In this scheme, there is no issue with
  1137.       nonconforming traffic, but there is an issue with congestion in
  1138.       the ATM network.
  1139.  
  1140.       RSVP provides some resiliency to message loss due to congestion,
  1141.       but RSVP control messages should be offered a preferred class of
  1142.       service.  A related variation of this scheme that is hopeful but
  1143.       requires further study is to have a packet scheduling algorithm
  1144.       (before entering the ATM network) that gives priority to the RSVP
  1145.       signalling traffic.  This can be difficult to do at the IP layer.
  1146.  
  1147.    4.2 Single RSVP VC per RSVP Reservation
  1148.  
  1149.       In this scheme, there is a parallel RSVP signalling VC for each
  1150.       RSVP reservation.  This scheme results in twice the minimum number
  1151.       of VCs, but means that RSVP signalling messages have the advantage
  1152.       of a separate VC.  This separate VC means that RSVP signalling
  1153.       messages have their own traffic contract and compliant signalling
  1154.       messages are not subject to dropping due to other noncompliant
  1155.       traffic (such as can happen with the scheme in section 4.1).  The
  1156.       advantage of this scheme is its simplicity - whenever a data VC is
  1157.       created, a separate RSVP signalling VC is created.  The
  1158.       disadvantage of the extra VC is that extra ATM signalling needs to
  1159.       be done.
  1160.  
  1161.       Additionally, this scheme requires twice the minimum number of VCs
  1162.       and also additional latency, but is quite simple.
  1163.  
  1164.    4.3 Multiplexed point-to-multipoint RSVP VCs
  1165.  
  1166.       In this scheme, there is a single point-to-multipoint RSVP
  1167.       signalling VC for each unique ingress router and unique set of
  1168.       egress routers.  This scheme allows multiplexing of RSVP
  1169.       signalling traffic that shares the same ingress router and the
  1170.       same egress routers.  This can save on the number of VCs, by
  1171.       multiplexing, but there are problems when the destinations of the
  1172.       multiplexed point-to-multipoint VCs are changing.  Several
  1173.       alternatives exist in these cases, that have applicability in
  1174.       different situations.  First, when the egress routers change, the
  1175.       ingress router can check if it already has a point-to-multipoint
  1176.       RSVP signalling VC for the new list of egress routers.  If the
  1177.       RSVP signalling VC already exists, then the RSVP signalling
  1178.       traffic can be switched to this existing VC.  If no such VC
  1179.       exists, one approach would be to create a new VC with the new list
  1180.  
  1181.  
  1182.  
  1183. Berson, Berger            Expiration: May 1997                 [Page 20]
  1184.  
  1185.  
  1186.  
  1187.  
  1188. Internet Draft   Integrated Services with RSVP over ATM    November 1996
  1189.  
  1190.  
  1191.       of egress routers.  Other approaches include modifying the
  1192.       existing VC to add an egress router or using a separate new VC for
  1193.       the new egress routers.  When a destination drops out of a group,
  1194.       an alternative would be to keep sending to the existing VC even
  1195.       though some traffic is wasted.
  1196.  
  1197.       The number of VCs used in this scheme is a function of traffic
  1198.       patterns across the ATM network, but is always less than the
  1199.       number used with the Single RSVP VC per data VC.  In addition,
  1200.       existing best effort data VCs could be used for RSVP signalling.
  1201.       Reusing best effort VCs saves on the number of VCs at the cost of
  1202.       higher probability of RSVP signalling packet loss.  One possible
  1203.       place where this scheme will work well is in the core of the
  1204.       network where there is the most opportunity to take advantage of
  1205.       the savings due to multiplexing.  The exact savings depend on the
  1206.       patterns of traffic and the topology of the ATM network.
  1207.  
  1208.    4.4 Multiplexed point-to-point RSVP VCs
  1209.  
  1210.       In this scheme, multiple point-to-point RSVP signalling VCs are
  1211.       used for a single point-to-multipoint data VC.  This scheme allows
  1212.       multiplexing of RSVP signalling traffic but requires the same
  1213.       traffic to be sent on each of several VCs.  This scheme is quite
  1214.       flexible and allows a large amount of multiplexing.  Since point-
  1215.       to-point VCs can set up a reverse channel at the same time as
  1216.       setting up the forward channel, this scheme could save
  1217.       substantially on signalling cost.  In addition, signalling traffic
  1218.       could share existing best effort VCs.  Sharing existing best
  1219.       effort VCs reduces the total number of VCs needed, but might cause
  1220.       signalling traffic drops if there is congestion in the ATM
  1221.       network.
  1222.  
  1223.       This point-to-point scheme would work well in the core of the
  1224.       network where there is much opportunity for multiplexing.  Also in
  1225.       the core of the network, RSVP VCs can stay permanently established
  1226.       either as Permanent Virtual Circuits (PVCs) or as long lived
  1227.       Switched Virtual Circuits (SVCs).  The number of VCs in this
  1228.       scheme will depend on traffic patterns, but in the core of a
  1229.       network would be approximately n(n-1)/2 where n is the number of
  1230.       IP nodes in the network.  In the core of the network, this will
  1231.       typically be small compared to the total number of VCs.
  1232.  
  1233.    4.5 QoS for RSVP VCs
  1234.  
  1235.       There is an issue for what QoS, if any, to assign to the RSVP VCs.
  1236.       Three solutions have been covered in section 4.1 and in the shared
  1237.       best effort VC variations in sections 4.4 and 4.3.  For other RSVP
  1238.       VC schemes, a QoS (possibly best effort) will be needed.  What QoS
  1239.  
  1240.  
  1241.  
  1242. Berson, Berger            Expiration: May 1997                 [Page 21]
  1243.  
  1244.  
  1245.  
  1246.  
  1247. Internet Draft   Integrated Services with RSVP over ATM    November 1996
  1248.  
  1249.  
  1250.       to use partially depends on the expected level of multiplexing
  1251.       that is being done on the VCs, and the expected reliability of
  1252.       best effort VCs.  Since RSVP signalling is infrequent (typically
  1253.       every 30 seconds), only a relatively small QoS should be needed.
  1254.       This is important since using a larger QoS risks the VC setup
  1255.       being rejected for lack of resources.  Falling back to best effort
  1256.       when a QoS call is rejected is possible, but if the ATM net is
  1257.       congested, there will likely be problems with RSVP packet loss on
  1258.       the best effort VC also.  Additional experimentation is needed in
  1259.       this area.
  1260.  
  1261.    4.6 Implementation Guidelines
  1262.  
  1263.       Implementations must, by default, send RSVP control (messages)
  1264.       over the best effort data path, see figure . This approach
  1265.       minimizes VC requirements since the best effort data path will
  1266.       need to exist in order for RSVP sessions to be established and in
  1267.       order for RSVP reservations to be initiated.  The specific best
  1268.       effort paths that will be used by RSVP are: for unicast, the same
  1269.       VC used to reach the unicast destination; and for multicast, the
  1270.       same VC that is used for best effort traffic destined to the IP
  1271.       multicast group.  Note that there may be another best effort VC
  1272.       that is used to carry session data traffic.
  1273.  
  1274.       [Figure goes here]
  1275.                    Figure 7: RSVP Control Message VC Usage
  1276.  
  1277.  
  1278.  
  1279.       The disadvantage of this approach is that best effort VCs may not
  1280.       provide the reliability that RSVP needs.  However the best-effort
  1281.       path is expected to satisfy RSVP reliability requirements in most
  1282.       networks. Especially since RSVP allows for a certain amount of
  1283.       packet loss without any loss of state synchronization.  In all
  1284.       cases, RSVP control traffic should be offered a preferred class of
  1285.       service.
  1286.  
  1287. 5. Encapsulation
  1288.  
  1289.    Since RSVP is a signalling protocol used to control flows of IP data
  1290.    packets, encapsulation for both RSVP packets and associated IP data
  1291.    packets must be defined. There are currently two encapsulation
  1292.    options for running IP over ATM, RFC 1483 and LANE.  There is also
  1293.    the possibility of future encapsulation options, such as MPOA[3].
  1294.    The first option is described in RFC 1483[9] and is currently used
  1295.    for "Classical" IP over ATM and NHRP.
  1296.  
  1297.    The second option is LAN Emulation, as described in [2].  LANE
  1298.  
  1299.  
  1300.  
  1301. Berson, Berger            Expiration: May 1997                 [Page 22]
  1302.  
  1303.  
  1304.  
  1305.  
  1306. Internet Draft   Integrated Services with RSVP over ATM    November 1996
  1307.  
  1308.  
  1309.    encapsulation does not currently include a QoS signalling interface.
  1310.    If LANE encapsulation is needed, LANE QoS signalling would first need
  1311.    to be defined by the ATM Forum.  It is possible that LANE 2.0 will
  1312.    include the required QoS support.
  1313.  
  1314.    5.1 Implementation Guidelines
  1315.  
  1316.       The default behavior for implementations must be to use a
  1317.       consistent encapsulation scheme for all IP over ATM packets.  This
  1318.       includes RSVP packets and associated IP data packets.  So,
  1319.       encapsulation used on QoS data VCs and related control VCs must,
  1320.       by default, be the same as used by best-effort VCs.
  1321.  
  1322. 6. Security
  1323.  
  1324.    The same considerations stated in [8] and [14] apply to this
  1325.    document.  There are no additional security issues raised in this
  1326.    document.
  1327.  
  1328. 7. Implementation Summary
  1329.  
  1330.    This section provides a summary of previously stated requirements and
  1331.    default implementation behavior.
  1332.  
  1333.    7.1 Requirements
  1334.  
  1335.       All RSVP over ATM UNI 3.0 and 4.0 implementations must conform to
  1336.       the following:
  1337.  
  1338.  
  1339.       o    VC Initiation
  1340.            All RSVP triggered QoS VCs must be established by the sub-net
  1341.            senders.
  1342.            VC receivers must be able to accept incoming QoS VCs.
  1343.  
  1344.       o    VC Teardown
  1345.            VC initiators must not tear down RSVP initiated VCs due to
  1346.            inactivity.
  1347.            VC receivers must not tear down any incoming VCs due to
  1348.            inactivity.
  1349.  
  1350.       o    Heterogeneity
  1351.            Implementations must not, in the normal case, send more than
  1352.            one copy of a particular data packet to a particular next-hop
  1353.            (ATM end-point).
  1354.            Implementations must ensure that data traffic is sent to
  1355.            best-effort receivers.
  1356.  
  1357.  
  1358.  
  1359.  
  1360. Berson, Berger            Expiration: May 1997                 [Page 23]
  1361.  
  1362.  
  1363.  
  1364.  
  1365. Internet Draft   Integrated Services with RSVP over ATM    November 1996
  1366.  
  1367.  
  1368.       o    Multicast Data Distribution
  1369.            When using multicast servers that do not support QoS
  1370.            requests, a sender must set the service, not global, break
  1371.            bit(s).
  1372.  
  1373.       o    Receiver Transitions
  1374.            While creating new VCs, senders must either send on only the
  1375.            old VC or on both the old and the new VCs.
  1376.  
  1377.    7.2 Default Behavior
  1378.  
  1379.       Default behavior defines a baseline set of functionality that must
  1380.       be provided by implementations.  Implementations may also provide
  1381.       additional functionality that may be configured to override the
  1382.       default behavior.  Which behavior is selected is a policy issue
  1383.       for network providers.  We expect some networks to only make use
  1384.       of default functionality and others to only make use of additional
  1385.       functionality.
  1386.  
  1387.  
  1388.       o    Reservation to VC Mapping
  1389.            Implementations must, by default, use a single VC to support
  1390.            each RSVP reservation.
  1391.            Implementations may also support aggregation approaches.
  1392.  
  1393.       o    Heterogeneity
  1394.            Either limited heterogeneity model or the modified
  1395.            homogeneous model must be the default model for handling
  1396.            heterogeneity.
  1397.            Implementations should support both approaches and provide
  1398.            the ability to select which method is actually used, but are
  1399.            not required to do so.
  1400.            Implementations, may also support heterogeneity through other
  1401.            mechanisms.
  1402.  
  1403.       o    Multicast End-Point Identification
  1404.            Implementations should, by default, only establish RSVP-
  1405.            initiated VCs to RSVP capable end-points.
  1406.  
  1407.       o    Multicast Data Distribution
  1408.            Implementations must, by default, support "mesh-mode"
  1409.            distribution for RSVP controlled multicast flows.
  1410.  
  1411.       o    Dynamic QoS
  1412.            Implementations must, by default, support RSVP requested
  1413.            changes in reservations by attempting to replace an existing
  1414.            VC with a new appropriately sized VC. During setup of the
  1415.            replacement VC, the old VC must be left in place unmodified.
  1416.  
  1417.  
  1418.  
  1419. Berson, Berger            Expiration: May 1997                 [Page 24]
  1420.  
  1421.  
  1422.  
  1423.  
  1424. Internet Draft   Integrated Services with RSVP over ATM    November 1996
  1425.  
  1426.  
  1427.       o    Short-Cuts
  1428.            Implementations should, by default, establish QoS short-cut
  1429.            whenever a best-effort short-cut is in use to a particular
  1430.            destination or next-hop.  This means that, by default, when
  1431.            best-effort short-cuts are never established, RSVP triggered
  1432.            short-cuts must also not be established.
  1433.  
  1434.       o    RSVP Control VC Management
  1435.            Implementations must, by default, send RSVP control
  1436.            (messages) over the best effort data path.
  1437.  
  1438.       o    Encapsulation
  1439.            Implementations must, by default, encapsulate data sent on
  1440.            QoS VCs with the same encapsulation as is used on best-effort
  1441.            VCs.
  1442.  
  1443. 8. Future Work
  1444.  
  1445.    We have described a set of schemes for deploying RSVP over IP over
  1446.    ATM.  There are a number of other issues that are subjects of
  1447.    continuing research.  These issues (and others) are covered in [5],
  1448.    and are briefly repeated here.
  1449.  
  1450.    A major issue is providing policy control for ATM VC creation.  There
  1451.    is work going on in the RSVP working group [8] on defining an
  1452.    architecture for policy support.  Further work is needed in defining
  1453.    an API and policy objects.  As this area is critical to deployment,
  1454.    progress will need to be made in this area.
  1455.  
  1456.    NHRP provides advantages in allowing short-cuts across 2 or more
  1457.    LIS's.  Short cutting router hops can lead to more efficient data
  1458.    delivery.  Work on NHRP is on-going, but currently provides only a
  1459.    unicast delivery service.  Further study is needed to determine how
  1460.    NHRP can be used with RSVP and ATM.  Future work depends on the
  1461.    development of NHRP for multicast.
  1462.  
  1463.    Furthermore, when using RSVP it may be desirable to establish
  1464.    multiple short-cut VCs, to use these VCs for specific QoS flows, and
  1465.    to use the hop-by-hop path for other QoS and non-QoS flows. The
  1466.    current NHRP specification [12] does not preclude such an approach,
  1467.    but nor does it explicitly support it. We believe that explicit
  1468.    support of flow based short-cuts would improve RSVP over ATM
  1469.    solutions. We also believe that such support may require the ability
  1470.    to include flow information in the NHRP request.
  1471.  
  1472.    There is work in the ION working group on MultiCast Server (MCS)
  1473.    architectures for MARS.  An MCS provides savings in the number of VCs
  1474.    in certain situations.  When using a multicast server, the sub-
  1475.  
  1476.  
  1477.  
  1478. Berson, Berger            Expiration: May 1997                 [Page 25]
  1479.  
  1480.  
  1481.  
  1482.  
  1483. Internet Draft   Integrated Services with RSVP over ATM    November 1996
  1484.  
  1485.  
  1486.    network sender could establish a point-to-point VC with a specific
  1487.    QoS to the server, but there is not current mechanism to relay QoS
  1488.    requirements to the MCS.  Future work includes providing RSVP and ATM
  1489.    support over MARS MCS's.
  1490.  
  1491.    Unicast ATM VCs are inherently bi-directional and have the capability
  1492.    of supporting a "reverse channel".  By using the reverse channel for
  1493.    unicast VCs, the number of VCs used can potentially be reduced.
  1494.    Future work includes examining how the reverse VCs can be used most
  1495.    effectively.
  1496.  
  1497.    Current work in the ATM Forum and ITU promises additional advantages
  1498.    for RSVP and ATM including renegotiating QoS parameters and
  1499.    variegated VCs.  QoS renegotiation would be particularly beneficial
  1500.    since the only option available today for changing VC QoS parameters
  1501.    is replacing the VC.  It is important to keep current with changes in
  1502.    ATM, and to keep this document up-to-date.
  1503.  
  1504.    Scaling of the number of sessions is an issue.  The key ATM related
  1505.    implication of a large number of sessions is the number of VCs and
  1506.    associated (buffer and queue) memory. The approach to solve this
  1507.    problem is aggregation either at the RSVP layer or at the ISSLL layer
  1508.    (or both).
  1509.  
  1510.    This document describes approaches that can be used with ATM UNI4.0,
  1511.    but does not make use of the available leaf-initiated join, or LIJ,
  1512.    capability.  The use of LIJ may be useful in addressing scaling
  1513.    issues.  The coordination of RSVP with LIJ remains a research issue.
  1514.  
  1515.    Lastly, it is likely that LANE 2.0 will provide some QoS support
  1516.    mechanisms, including proper QoS allocation for multicast traffic.
  1517.    It is important to track developments, and develop suitable RSVP over
  1518.    ATM LANE at the appropriate time.
  1519.  
  1520. 9. Authors' Addresses
  1521.  
  1522.       Steven Berson
  1523.       USC Information Sciences Institute
  1524.       4676 Admiralty Way
  1525.       Marina del Rey, CA 90292
  1526.  
  1527.       Phone: +1 310 822 1511
  1528.       EMail: berson@isi.edu
  1529.  
  1530.  
  1531.  
  1532.  
  1533.  
  1534.  
  1535.  
  1536.  
  1537. Berson, Berger            Expiration: May 1997                 [Page 26]
  1538.  
  1539.  
  1540.  
  1541.  
  1542. Internet Draft   Integrated Services with RSVP over ATM    November 1996
  1543.  
  1544.  
  1545.       Lou Berger
  1546.       FORE Systems
  1547.       6905 Rockledge Drive
  1548.       Suite 800
  1549.       Bethesda, MD 20817
  1550.  
  1551.       Phone: +1 301 571 2534
  1552.       EMail: lberger@fore.com
  1553.  
  1554. REFERENCES
  1555.  
  1556. [1] Armitage, G., "Support for Multicast over UNI 3.0/3.1 based ATM
  1557.     Networks," Internet Draft, February 1996.
  1558.  
  1559. [2] The ATM Forum, "LAN Emulation Over ATM Specification", Version 1.0.
  1560.  
  1561. [3] The ATM Forum, "MPOA Baseline Version 1", 95-0824r9, September 1996.
  1562.  
  1563. [4] Berson, S., "`Classical' RSVP and IP over ATM," INET '96, July 1996.
  1564.  
  1565. [5] Borden, M., Crawley, E., Krawczyk, J, Baker, F., and Berson, S.,
  1566.     "Issues for RSVP and Integrated Services over ATM," Internet Draft,
  1567.     February 1996.
  1568.  
  1569. [6] Borden, M., and Garrett, M., "Interoperation of Controlled-Load and
  1570.     Guaranteed-Service with ATM," Internet Draft, June 1996.
  1571.  
  1572. [7] Braden, R., Clark, D., Shenker, S.  "Integrated Services in the
  1573.     Internet Architecture: an Overview," RFC 1633, June 1994.
  1574.  
  1575. [8] Braden, R., Zhang, L., Berson, S., Herzog, S., and Jamin, S.,
  1576.     "Resource ReSerVation Protocol (RSVP) -- Version 1 Functional
  1577.     Specification," Internet Draft, November 1996.
  1578.  
  1579. [9] Heinanen, J., "Multiprotocol Encapsulation over ATM Adaptation Layer
  1580.     5," RFC 1483.
  1581.  
  1582. [10] Herzog, S., "Accounting and Access Control Policies for Resource
  1583.     Reservation Protocols," Internet Draft, June 1996.
  1584.  
  1585. [11] Laubach, M., "Classical IP and ARP over ATM," RFC 1577, January
  1586.     1994.
  1587.  
  1588. [12] Luciani, J., Katz, D., Piscitello, D., Cole, B., "NBMA Next Hop
  1589.     Resolution Protocol (NHRP)," Internet Draft, June 1996.
  1590.  
  1591. [13] Onvural, R., Srinivasan, V., "A Framework for Supporting RSVP Flows
  1592.     Over ATM Networks," Internet Draft, March 1996.
  1593.  
  1594.  
  1595.  
  1596. Berson, Berger            Expiration: May 1997                 [Page 27]
  1597.  
  1598.  
  1599.  
  1600.  
  1601. Internet Draft   Integrated Services with RSVP over ATM    November 1996
  1602.  
  1603.  
  1604. [14] Perez, M., Liaw, F., Grossman, D., Mankin, A., Hoffman, E., and
  1605.     Malis, A., "ATM Signalling Support for IP over ATM," RFC 1755.
  1606.  
  1607. [15] Perez, M., Mankin, A.  "ATM Signalling Support for IP over ATM -
  1608.     UNI 4.0 Update" Internet Draft, November 1996.
  1609.  
  1610. [16] "ATM User-Network Interface (UNI) Specification - Version 3.1",
  1611.     Prentice Hall.
  1612.  
  1613. [17] Shenker, S., Partridge, C., Guerin, R., "Specification of
  1614.     Guaranteed Quality of Service," Internet Draft, August 1996.
  1615.  
  1616. [18] Wroclawski, J., "Specification of the Controlled-Load Network
  1617.     Element Service," Internet Draft, August, 1996.
  1618.  
  1619. [19] Zhang, L., Deering, S., Estrin, D., Shenker, S., Zappala, D.,
  1620.     "RSVP: A New Resource ReSerVation Protocol," IEEE Network, September
  1621.     1993.
  1622.  
  1623.  
  1624.  
  1625.  
  1626.  
  1627.  
  1628.  
  1629.  
  1630.  
  1631.  
  1632.  
  1633.  
  1634.  
  1635.  
  1636.  
  1637.  
  1638.  
  1639.  
  1640.  
  1641.  
  1642.  
  1643.  
  1644.  
  1645.  
  1646.  
  1647.  
  1648.  
  1649.  
  1650.  
  1651.  
  1652.  
  1653.  
  1654.  
  1655. Berson, Berger            Expiration: May 1997                 [Page 28]
  1656.  
  1657.