home *** CD-ROM | disk | FTP | other *** search
/ Unix System Administration Handbook 1997 October / usah_oct97.iso / rfc / 1900s / rfc1932.txt < prev    next >
Text File  |  1996-04-04  |  75KB  |  1,740 lines

  1.  
  2.  
  3.  
  4.  
  5.  
  6.  
  7. Network Working Group                                            R. Cole
  8. Request for Comments: 1932                                       D. Shur
  9. Category: Informational                           AT&T Bell Laboratories
  10.                                                            C. Villamizar
  11.                                                                      ANS
  12.                                                               April 1996
  13.  
  14.  
  15.                    IP over ATM: A Framework Document
  16.  
  17. Status of this Memo
  18.  
  19.    This memo provides information for the Internet community.  This memo
  20.    does not specify an Internet standard of any kind.  Distribution of
  21.    this memo is unlimited.
  22.  
  23.    Abstract
  24.  
  25.    The discussions of the IP over ATM working group over the last
  26.    several years have produced a diverse set of proposals, some of which
  27.    are no longer under active consideration.  A categorization is
  28.    provided for the purpose of focusing discussion on the various
  29.    proposals for IP over ATM deemed of primary interest by the IP over
  30.    ATM working group.  The intent of this framework is to help clarify
  31.    the differences between proposals and identify common features in
  32.    order to promote convergence to a smaller and more mutually
  33.    compatible set of standards.  In summary, it is hoped that this
  34.    document, in classifying ATM approaches and issues will help to focus
  35.    the IP over ATM working group's direction.
  36.  
  37. 1.  Introduction
  38.  
  39.    The IP over ATM Working Group of the Internet Engineering Task Force
  40.    (IETF) is chartered to develop standards for routing and forwarding
  41.    IP packets over ATM sub-networks.  This document provides a
  42.    classification/taxonomy of IP over ATM options and issues and then
  43.    describes various proposals in these terms.
  44.  
  45.    The remainder of this memorandum is organized as follows:
  46.  
  47.    o Section 2 defines several terms relating to networking and
  48.      internetworking.
  49.  
  50.    o Section 3 discusses the parameters for a taxonomy of the
  51.      different ATM models under discussion.
  52.  
  53.    o Section 4 discusses the options for low level encapsulation.
  54.  
  55.  
  56.  
  57.  
  58. Cole, Shur & Villamizar      Informational                      [Page 1]
  59.  
  60. RFC 1932           IP over ATM: A Framework Document          April 1996
  61.  
  62.  
  63.    o Section 5 discusses tradeoffs between connection oriented and
  64.      connectionless approaches.
  65.  
  66.    o Section 6 discusses the various means of providing direct
  67.      connections across IP subnet boundaries.
  68.  
  69.    o Section 7 discusses the proposal to extend IP routing to better
  70.      accommodate direct connections across IP subnet boundaries.
  71.  
  72.    o Section 8 identifies several prominent IP over ATM proposals that
  73.      have been discussed within the IP over ATM Working Group and
  74.      their relationship to the framework described in this document.
  75.  
  76.    o Section 9 addresses the relationship between the documents
  77.      developed in the IP over ATM and related working groups and the
  78.      various models discussed.
  79.  
  80. 2.  Definitions and Terminology
  81.  
  82.    We define several terms:
  83.  
  84.    A Host or End System: A host delivers/receives IP packets to/from
  85.      other systems, but does not relay IP packets.
  86.  
  87.    A Router or Intermediate System: A router delivers/receives IP
  88.      packets to/from other systems, and relays IP packets among
  89.      systems.
  90.  
  91.    IP Subnet: In an IP subnet, all members of the subnet are able to
  92.       transmit packets to all other members of the subnet directly,
  93.       without forwarding by intermediate entities.  No two subnet
  94.       members are considered closer in the IP topology than any other.
  95.       From an IP routing and IP forwarding standpoint a subnet is
  96.       atomic, though there may be repeaters, hubs, bridges, or switches
  97.       between the physical interfaces of subnet members.
  98.  
  99.    Bridged IP Subnet: A bridged IP subnet is one in which two or
  100.       more physically disjoint media are made to appear as a single IP
  101.       subnet.  There are two basic types of bridging, media access
  102.       control (MAC) level, and proxy ARP (see section 6).
  103.  
  104.    A Broadcast Subnet: A broadcast network supports an arbitrary
  105.       number of hosts and routers and additionally is capable of
  106.       transmitting a single IP packet to all of these systems.
  107.  
  108.    A Multicast Capable Subnet: A multicast capable subnet supports
  109.      a facility to send a packet which reaches a subset of the
  110.      destinations on the subnet.  Multicast setup may be sender
  111.  
  112.  
  113.  
  114. Cole, Shur & Villamizar      Informational                      [Page 2]
  115.  
  116. RFC 1932           IP over ATM: A Framework Document          April 1996
  117.  
  118.  
  119.      initiated, or leaf initiated.  ATM UNI 3.0 [4] and UNI 3.1
  120.      support only sender initiated while IP supports leaf initiated
  121.      join.  UNI 4.0 will support leaf initiated join.
  122.  
  123.    A Non-Broadcast Multiple Access (NBMA) Subnet: An NBMA supports
  124.      an arbitrary number of hosts and routers but does not
  125.      natively support a convenient multi-destination connectionless
  126.      transmission facility, as does a broadcast or multicast capable
  127.      subnetwork.
  128.  
  129.    An End-to-End path: An end-to-end path consists of two hosts which
  130.       can communicate with one another over an arbitrary number of
  131.       routers and subnets.
  132.  
  133.    An internetwork: An internetwork (small "i") is the concatenation
  134.       of networks, often of various different media and lower level
  135.       encapsulations, to form an integrated larger network supporting
  136.       communication between any of the hosts on any of the component
  137.       networks.  The Internet (big "I") is a specific well known
  138.       global concatenation of (over 40,000 at the time of writing)
  139.       component networks.
  140.  
  141.    IP forwarding: IP forwarding is the process of receiving a packet
  142.       and using a very low overhead decision process determining how
  143.       to handle the packet.  The packet may be delivered locally
  144.       (for example, management traffic) or forwarded externally.  For
  145.       traffic that is forwarded externally, the IP forwarding process
  146.       also determines which interface the packet should be sent out on,
  147.       and if necessary, either removes one media layer encapsulation
  148.       and replaces it with another, or modifies certain fields in the
  149.       media layer encapsulation.
  150.  
  151.    IP routing: IP routing is the exchange of information that takes
  152.       place in order to have available the information necessary to
  153.       make a correct IP forwarding decision.
  154.  
  155.    IP address resolution: A quasi-static mapping exists between IP
  156.       address on the local IP subnet and media address on the local
  157.       subnet.  This mapping is known as IP address resolution.
  158.       An address resolution protocol (ARP) is a protocol supporting
  159.       address resolution.
  160.  
  161.    In order to support end-to-end connectivity, two techniques are used.
  162.    One involves allowing direct connectivity across classic IP subnet
  163.    boundaries supported by certain NBMA media, which includes ATM.  The
  164.    other involves IP routing and IP forwarding.  In essence, the former
  165.    technique is extending IP address resolution beyond the boundaries of
  166.    the IP subnet, while the latter is interconnecting IP subnets.
  167.  
  168.  
  169.  
  170. Cole, Shur & Villamizar      Informational                      [Page 3]
  171.  
  172. RFC 1932           IP over ATM: A Framework Document          April 1996
  173.  
  174.  
  175.    Large internetworks, and in particular the Internet, are unlikely to
  176.    be composed of a single media, or a star topology, with a single
  177.    media at the center.  Within a large network supporting a common
  178.    media, typically any large NBMA such as ATM, IP routing and IP
  179.    forwarding must always be accommodated if the internetwork is larger
  180.    than the NBMA, particularly if there are multiple points of
  181.    interconnection with the NBMA and/or redundant, diverse
  182.    interconnections.
  183.  
  184.    Routing information exchange in a very large internetwork can be
  185.    quite dynamic due to the high probability that some network elements
  186.    are changing state.  The address resolution space consumption and
  187.    resource consumption due to state change, or maintenance of state
  188.    information is rarely a problem in classic IP subnets.  It can become
  189.    a problem in large bridged networks or in proposals that attempt to
  190.    extend address resolution beyond the IP subnet.  Scaling properties
  191.    of address resolution and routing proposals, with respect to state
  192.    information and state change, must be considered.
  193.  
  194. 3.  Parameters Common to IP Over ATM Proposals
  195.  
  196.    In some discussion of IP over ATM distinctions have made between
  197.    local area networks (LANs), and wide area networks (WANs) that do not
  198.    necessarily hold.  The distinction between a LAN, MAN and WAN is a
  199.    matter of geographic dispersion.  Geographic dispersion affects
  200.    performance due to increased propagation delay.
  201.  
  202.    LANs are used for network interconnections at the the major Internet
  203.    traffic interconnect sites.  Such LANs have multiple administrative
  204.    authorities, currently exclusively support routers providing transit
  205.    to multihomed internets, currently rely on PVCs and static address
  206.    resolution, and rely heavily on IP routing.  Such a configuration
  207.    differs from the typical LANs used to interconnect computers in
  208.    corporate or campus environments, and emphasizes the point that prior
  209.    characterization of LANs do not necessarily hold.  Similarly, WANs
  210.    such as those under consideration by numerous large IP providers, do
  211.    not conform to prior characterizations of ATM WANs in that they have
  212.    a single administrative authority and a small number of nodes
  213.    aggregating large flows of traffic onto single PVCs and rely on IP
  214.    routers to avoid forming congestion bottlenecks within ATM.
  215.  
  216.    The following characteristics of the IP over ATM internetwork may be
  217.    independent of geographic dispersion (LAN, MAN, or WAN).
  218.  
  219.    o The size of the IP over ATM internetwork (number of nodes).
  220.  
  221.    o The size of ATM IP subnets (LIS) in the ATM Internetwork.
  222.  
  223.  
  224.  
  225.  
  226. Cole, Shur & Villamizar      Informational                      [Page 4]
  227.  
  228. RFC 1932           IP over ATM: A Framework Document          April 1996
  229.  
  230.  
  231.    o Single IP subnet vs multiple IP subnet ATM internetworks.
  232.  
  233.    o Single or multiple administrative authority.
  234.  
  235.    o Presence of routers providing transit to multihomed internets.
  236.  
  237.    o The presence or absence of dynamic address resolution.
  238.  
  239.    o The presence or absence of an IP routing protocol.
  240.  
  241. IP over ATM should therefore be characterized by:
  242.  
  243.    o Encapsulations below the IP level.
  244.  
  245.    o Degree to which a connection oriented lower level is available
  246.      and utilized.
  247.  
  248.    o Type of address resolution at the IP subnet level (static or
  249.      dynamic).
  250.  
  251.    o Degree to which address resolution is extended beyond the IP
  252.      subnet boundary.
  253.  
  254.    o The type of routing (if any) supported above the IP level.
  255.  
  256. ATM-specific attributes of particular importance include:
  257.  
  258.    o The different types of services provided by the ATM Adaptation
  259.      Layers (AAL).  These specify the Quality-of-Service, the
  260.      connection-mode, etc.  The models discussed within this document
  261.      assume an underlying connection-oriented service.
  262.  
  263.    o The type of virtual circuits used, i.e., PVCs versus SVCs.  The
  264.      PVC environment requires the use of either static tables for
  265.      ATM-to-IP address mapping or the use of inverse ARP, while the
  266.      SVC environment requires ARP functionality to be provided.
  267.  
  268.    o The type of support for multicast services.  If point-to-point
  269.      services only are available, then a server for IP multicast is
  270.      required.  If point-to-multipoint services are available, then
  271.      IP multicast can be supported via meshes of point-to-multipoint
  272.      connections (although use of a server may be necessary due to
  273.      limits on the number of multipoint VCs able to be supported or to
  274.      maintain the leaf initiated join semantics).
  275.  
  276.    o The presence of logical link identifiers (VPI/VCIs) and the
  277.      various information element (IE) encodings within the ATM SVC
  278.      signaling specification, i.e., the ATM Forum UNI version 3.1.
  279.  
  280.  
  281.  
  282. Cole, Shur & Villamizar      Informational                      [Page 5]
  283.  
  284. RFC 1932           IP over ATM: A Framework Document          April 1996
  285.  
  286.  
  287.      This allows a VC originator to specify a range of "layer"
  288.      entities as the destination "AAL User".  The AAL specifications
  289.      do not prohibit any particular "layer X" from attaching
  290.      directly to a local AAL service.  Taken together these points
  291.      imply a range of methods for encapsulation of upper layer
  292.      protocols over ATM. For example, while LLC/SNAP encapsulation is
  293.      one approach (the default), it is also possible to bind virtual
  294.      circuits to higher level entities in the TCP/IP protocol stack.
  295.      Some examples of the latter are single VC per protocol binding,
  296.      TULIP, and TUNIC, discussed further in Section 4.
  297.  
  298.    o The number and type of ATM administrative domains/networks, and
  299.      type of addressing used within an administrative domain/network.
  300.      In particular, in the single domain/network case, all attached
  301.      systems may be safely assumed to be using a single common
  302.      addressing format, while in the multiple domain case, attached
  303.      stations may not all be using the same common format,
  304.      with corresponding implications on address resolution.  (See
  305.      Appendix A for a discussion of some of the issues that arise
  306.      when multiple ATM address formats are used in the same logical
  307.      IP subnet (LIS).) Also security/authentication is much more of a
  308.      concern in the multiple domain case.
  309.  
  310.    IP over ATM proposals do not universally accept that IP routing over
  311.    an ATM network is required.  Certain proposals rely on the following
  312.    assumptions:
  313.  
  314.    o The widespread deployment of ATM within premises-based networks,
  315.      private wide-area networks and public networks, and
  316.  
  317.    o The definition of interfaces, signaling and routing protocols
  318.      among private ATM networks.
  319.  
  320.    The above assumptions amount to ubiquitous deployment of a seamless
  321.    ATM fabric which serves as the hub of a star topology around which
  322.    all other media is attached.  There has been a great deal of
  323.    discussion over when, if ever, this will be a realistic assumption
  324.    for very large internetworks, such as the Internet.  Advocates of
  325.    such approaches point out that even if these are not relevant to very
  326.    large internetworks such as the Internet, there may be a place for
  327.    such models in smaller internetworks, such as corporate networks.
  328.  
  329.    The NHRP protocol (Section 8.2), not necessarily specific to ATM,
  330.    would be particularly appropriate for the case of ubiquitous ATM
  331.    deployment.  NHRP supports the establishment of direct connections
  332.    across IP subnets in the ATM domain.  The use of NHRP does not
  333.    require ubiquitous ATM deployment, but currently imposes topology
  334.    constraints to avoid routing loops (see Section 7).  Section 8.2
  335.  
  336.  
  337.  
  338. Cole, Shur & Villamizar      Informational                      [Page 6]
  339.  
  340. RFC 1932           IP over ATM: A Framework Document          April 1996
  341.  
  342.  
  343.    describes NHRP in greater detail.
  344.  
  345.    The Peer Model assumes that internetwork layer addresses can be
  346.    mapped onto ATM addresses and vice versa, and that reachability
  347.    information between ATM routing and internetwork layer routing can be
  348.    exchanged.  This approach has limited applicability unless ubiquitous
  349.    deployment of ATM holds.  The peer model is described in Section 8.4.
  350.  
  351.    The Integrated Model proposes a routing solution supporting an
  352.    exchange of routing information between ATM routing and higher level
  353.    routing.  This provides timely external routing information within
  354.    the ATM routing and provides transit of external routing information
  355.    through the ATM routing between external routing domains.  Such
  356.    proposals may better support a possibly lengthy transition during
  357.    which assumptions of ubiquitous ATM access do not hold.  The
  358.    Integrated Model is described in Section 8.5.
  359.  
  360.    The Multiprotocol over ATM (MPOA) Sub-Working Group was formed by the
  361.    ATM Forum to provide multiprotocol support over ATM. The MPOA effort
  362.    is at an early stage at the time of this writing.  An MPOA baseline
  363.    document has been drafted, which provides terminology for further
  364.    discussion of the architecture.  This document is available from the
  365.    FTP server ftp.atmforum.com in pub/contributions as the file atm95-
  366.    0824.ps or atm95-0824.txt.
  367.  
  368. 4.  Encapsulations and Lower Layer Identification
  369.  
  370.    Data encapsulation, and the identification of VC endpoints,
  371.    constitute two important issues that are somewhat orthogonal to the
  372.    issues of network topology and routing.  The relationship between
  373.    these two issues is also a potential sources of confusion.  In
  374.    conventional LAN technologies the 'encapsulation' wrapped around a
  375.    packet of data typically defines the (de)multiplexing path within
  376.    source and destination nodes (e.g.  the Ethertype field of an
  377.    Ethernet packet).  Choice of the protocol endpoint within the
  378.    packet's destination node is essentially carried 'in-band'.
  379.  
  380.    As the multiplexing is pushed towards ATM and away from LLC/SNAP
  381.    mechanism, a greater burden will be placed upon the call setup and
  382.    teardown capacity of the ATM network.  This may result in some
  383.    questions being raised regarding the scalability of these lower level
  384.    multiplexing options.
  385.  
  386.    With the ATM Forum UNI version 3.1 service the choice of endpoint
  387.    within a destination node is made 'out of band' - during the Call
  388.    Setup phase.  This is quite independent of any in-band encapsulation
  389.    mechanisms that may be in use.  The B-LLI Information Element allows
  390.    Layer 2 or Layer 3 entities to be specified as a VC's endpoint.  When
  391.  
  392.  
  393.  
  394. Cole, Shur & Villamizar      Informational                      [Page 7]
  395.  
  396. RFC 1932           IP over ATM: A Framework Document          April 1996
  397.  
  398.  
  399.    faced with an incoming SETUP message the Called Party will search
  400.    locally for an AAL User that claims to provide the service of the
  401.    layer specified in the B-LLI.  If one is found then the VC will be
  402.    accepted (assuming other conditions such as QoS requirements are also
  403.    met).
  404.  
  405.    An obvious approach for IP environments is to simply specify the
  406.    Internet Protocol layer as the VCs endpoint, and place IP packets
  407.    into AAL--SDUs for transmission.  This is termed 'VC multiplexing' or
  408.    'Null Encapsulation', because it involves terminating a VC (through
  409.    an AAL instance) directly on a layer 3 endpoint.  However, this
  410.    approach has limitations in environments that need to support
  411.    multiple layer 3 protocols between the same two ATM level endpoints.
  412.    Each pair of layer 3 protocol entities that wish to exchange packets
  413.    require their own VC.
  414.  
  415.  
  416.  
  417.  
  418.  
  419.  
  420.  
  421.  
  422.  
  423.  
  424.  
  425.  
  426.  
  427.  
  428.  
  429.  
  430.  
  431.  
  432.  
  433.  
  434.  
  435.  
  436.  
  437.  
  438.  
  439.  
  440.  
  441.  
  442.  
  443.  
  444.  
  445.  
  446.  
  447.  
  448.  
  449.  
  450. Cole, Shur & Villamizar      Informational                      [Page 8]
  451.  
  452. RFC 1932           IP over ATM: A Framework Document          April 1996
  453.  
  454.  
  455.    RFC-1483 [6] notes that VC multiplexing is possible, but focuses on
  456.    describing an alternative termed 'LLC/SNAP Encapsulation'.  This
  457.    allows any set of protocols that may be uniquely identified by an
  458.    LLC/SNAP header to be multiplexed onto a single VC. Figure 1 shows
  459.    how this works for IP packets - the first 3 bytes indicate that the
  460.    payload is a Routed Non-ISO PDU, and the Organizationally Unique
  461.    Identifier (OUI) of 0x00-00-00 indicates that the Protocol Identifier
  462.    (PID) is derived from the EtherType associated with IP packets
  463.    (0x800).  ARP packets are multiplexed onto a VC by using a PID of
  464.    0x806 instead of 0x800.
  465.                                                .---------------.
  466.                                                :               :
  467.                                                :   IP Packet   :
  468.                                                :               :
  469.                                                 ---------------
  470.                                                  :           :
  471.                                                  :           :
  472.                  8 byte header                   V           V
  473.       .-------------.-------------.------------.---------------.
  474.       :             :             :            :               :
  475.       :             :             :            : Encapsulated  :
  476.       : 0xAA-AA-03  :  0x00-00-00 :   0x08-00  :    Payload    :
  477.       :             :             :            :               :
  478.        -------------^-------------^------------^---------------
  479.        :                                     :   :           :
  480.        :   (LLC)         (OUI)         (PID) :   :           :
  481.        V                                     V   V           V
  482.      .----------------------------------------------------------.
  483.      :                                                          :
  484.      :                          AAL SDU                         :
  485.      :                                                          :
  486.       ----------------------------------------------------------
  487.             Figure 1:  IP packet encapsulated in an AAL5 SDU
  488.  
  489.  
  490.  
  491.  
  492.  
  493.  
  494.  
  495.  
  496.  
  497.  
  498.  
  499.  
  500.  
  501.  
  502.  
  503.  
  504.  
  505.  
  506. Cole, Shur & Villamizar      Informational                      [Page 9]
  507.  
  508. RFC 1932           IP over ATM: A Framework Document          April 1996
  509.  
  510.  
  511.       .----------.     .----------.    .---------.     .----------.
  512.       :          :     :          :    :         :     :          :
  513.       :    IP    :     :   ARP    :    :AppleTalk:     :   etc... :
  514.       :          :     :          :    :         :     :          :
  515.        ----------       ----------      ---------       ----------
  516.          ^    :           ^    :         ^     :          ^     :
  517.          :    :           :    :         :     :          :     :
  518.          :    V           :    V         :     V          :     V
  519.       .-----------------------------------------------------------.
  520.       :                                                           :
  521.       :  0x800             0x806          0x809            other  :
  522.       :                                                           :
  523.       :         Instance of layer using LLC/SNAP header to        :
  524.       :            perform multiplexing/demultiplexing            :
  525.       :                                                           :
  526.        -----------------------------------------------------------
  527.                                ^  :
  528.                                :  :
  529.                                :  V
  530.                         .------------------.
  531.                         :                  :
  532.                         : Instance of AAL5 :
  533.                         :    terminating   :
  534.                         :      one VCC     :
  535.                         :                  :
  536.                          ------------------
  537.  
  538.         Figure 2: LLC/SNAP encapsulation allows more than just
  539.                            IP or ARP per VC.
  540.  
  541.    Whatever layer terminates a VC carrying LLC/SNAP encapsulated traffic
  542.    must know how to parse the AAL--SDUs in order to retrieve the
  543.    packets.  The recently approved signalling standards for IP over ATM
  544.    are more explicit, noting that the default SETUP message used to
  545.    establish IP over ATM VCs must carry a B-LLI specifying an ISO 8802/2
  546.    Layer 2 (LLC) entity as each VCs endpoint.  More significantly, there
  547.    is no information carried within the SETUP message about the identity
  548.    of the layer 3 protocol that originated the request - until the
  549.    packets begin arriving the terminating LLC entity cannot know which
  550.    one or more higher layers are packet destinations.
  551.  
  552.    Taken together, this means that hosts require a protocol entity to
  553.    register with the host's local UNI 3.1 management layer as being an
  554.    LLC entity, and this same entity must know how to handle and generate
  555.    LLC/SNAP encapsulated packets.  The LLC entity will also require
  556.    mechanisms for attaching to higher layer protocols such as IP and
  557.    ARP.  Figure 2 attempts to show this, and also highlights the fact
  558.    that such an LLC entity might support many more than just IP and ARP.
  559.  
  560.  
  561.  
  562. Cole, Shur & Villamizar      Informational                     [Page 10]
  563.  
  564. RFC 1932           IP over ATM: A Framework Document          April 1996
  565.  
  566.  
  567.    In fact the combination of RFC 1483 LLC/SNAP encapsulation, LLC
  568.    entities terminating VCs, and suitable choice of LLC/SNAP values, can
  569.    go a long way towards providing an integrated approach to building
  570.    multiprotocol networks over ATM.
  571.  
  572.    The processes of actually establishing AAL Users, and identifying
  573.    them to the local UNI 3.1 management layers, are still undefined and
  574.    are likely to be very dependent on operating system environments.
  575.  
  576.    Two encapsulations have been discussed within the IP over ATM working
  577.    group which differ from those given in RFC-1483 [6].  These have the
  578.    characteristic of largely or totally eliminating IP header overhead.
  579.    These models were discussed in the July 1993 IETF meeting in
  580.    Amsterdam, but have not been fully defined by the working group.
  581.  
  582.    TULIP and TUNIC assume single hop reachability between IP entities.
  583.    Following name resolution, address resolution, and SVC signaling, an
  584.    implicit binding is established between entities in the two hosts.
  585.    In this case full IP headers (and in particular source and
  586.    destination addresses) are not required in each data packet.
  587.  
  588.    o The first model is "TCP and UDP over Lightweight IP" (TULIP)
  589.      in which only the IP protocol field is carried in each packet,
  590.      everything else being bound at call set-up time.  In this
  591.      case the implicit binding is between the IP entities in each
  592.      host.  Since there is no further routing problem once the binding
  593.      is established, since AAL5 can indicate packet size, since
  594.      fragmentation cannot occur, and since ATM signaling will handle
  595.      exception conditions, the absence of all other IP header fields
  596.      and of ICMP should not be an issue.  Entry to TULIP mode would
  597.      occur as the last stage in SVC signaling, by a simple extension
  598.      to the encapsulation negotiation described in RFC-1755 [10].
  599.  
  600.      TULIP changes nothing in the abstract architecture of the IP
  601.      model, since each host or router still has an IP address which is
  602.      resolved to an ATM address.  It simply uses the point-to-point
  603.      property of VCs to allow the elimination of some per-packet
  604.      overhead.  The use of TULIP could in principle be negotiated on a
  605.      per-SVC basis or configured on a per-PVC basis.
  606.  
  607.    o The second model is "TCP and UDP over a Nonexistent IP
  608.      Connection" (TUNIC). In this case no network-layer information
  609.      is carried in each packet, everything being bound at virtual
  610.      circuit set-up time.  The implicit binding is between two
  611.      applications using either TCP or UDP directly over AAL5 on a
  612.      dedicated VC.  If this can be achieved, the IP protocol field has
  613.      no useful dynamic function.  However, in order to achieve binding
  614.      between two applications, the use of a well-known port number
  615.  
  616.  
  617.  
  618. Cole, Shur & Villamizar      Informational                     [Page 11]
  619.  
  620. RFC 1932           IP over ATM: A Framework Document          April 1996
  621.  
  622.  
  623.      in classical IP or in TULIP mode may be necessary during call
  624.      set-up.  This is a subject for further study and would require
  625.      significant extensions to the use of SVC signaling described in
  626.      RFC-1755 [10].
  627.  
  628.     Encapsulation   In setup message            Demultiplexing
  629.     -------------+--------------------------+------------------------
  630.     SNAP/LLC     _ nothing                  _ source and destination
  631.                  _                          _ address, protocol
  632.                  _                          _ family, protocol, ports
  633.                  _                          _
  634.     NULL encaps  _ protocol family          _ source and destination
  635.                  _                          _ address, protocol, ports
  636.                  _                          _
  637.     TULIP        _ source and destination   _ protocol, ports
  638.                  _ address, protocol family _
  639.                  _                          _
  640.     TUNIC - A    _ source and destination   _ ports
  641.                  _ address, protocol family _
  642.                  _ protocol                 _
  643.                  _                          _
  644.     TUNIC - B    _ source and destination   _ nothing
  645.                  _ address, protocol family _
  646.                  _ protocol, ports          _
  647.  
  648.  
  649.                 Table 1:  Summary of Encapsulation Types
  650.  
  651. TULIP/TUNIC can be presented as being on one end of a continuum opposite
  652. the SNAP/LLC encapsulation, with various forms of null encapsulation
  653. somewhere in the middle.  The continuum is simply a matter of how much
  654. is moved from in-stream demultiplexing to call setup demultiplexing.
  655. The various encapsulation types are presented in Table 1.
  656.  
  657. Encapsulations such as TULIP and TUNIC make assumptions with regard to
  658. the desirability to support connection oriented flow.  The tradeoffs
  659. between connection oriented and connectionless are discussed in Section
  660. 5.
  661.  
  662.  
  663.  
  664.  
  665.  
  666.  
  667.  
  668.  
  669.  
  670.  
  671.  
  672.  
  673.  
  674. Cole, Shur & Villamizar      Informational                     [Page 12]
  675.  
  676. RFC 1932           IP over ATM: A Framework Document          April 1996
  677.  
  678.  
  679. 5.  Connection Oriented and Connectionless Tradeoffs
  680.  
  681. The connection oriented and connectionless approaches each offer
  682. advantages and disadvantages.  In the past, strong advocates of pure
  683. connection oriented and pure connectionless architectures have argued
  684. intensely.  IP over ATM does not need to be purely connectionless or
  685. purely connection oriented.
  686.  
  687.     APPLICATION       Pure Connection Oriented Approach
  688.     ----------------+-------------------------------------------------
  689.     General         _ Always set up a VC
  690.                     _
  691.     Short Duration  _ Set up a VC.  Either hold the packet during VC
  692.     UDP (DNS)       _ setup or drop it and await a retransmission.
  693.                     _ Teardown on a timer basis.
  694.                     _
  695.     Short Duration  _ Set up a VC.  Either hold packet(s) during VC
  696.     TCP (SMTP)      _ setup or drop them and await retransmission.
  697.                     _ Teardown on detection of FIN-ACK or on a timer
  698.                     _ basis.
  699.                     _
  700.     Elastic (TCP)   _ Set up a VC same as above.  No clear method to
  701.     Bulk Transfer   _ set QoS parameters has emerged.
  702.                     _
  703.     Real Time       _ Set up a VC.  QoS parameters are assumed to
  704.     (audio, video)  _ precede traffic in RSVP or be carried in some
  705.                     _ form within the traffic itself.
  706.  
  707.  
  708.       Table 2: Connection Oriented vs. Connectionless - a) a pure
  709.                       connection oriented approach
  710.  
  711. ATM with basic AAL 5 service is connection oriented.  The IP layer
  712. above ATM is connectionless.  On top of IP much of the traffic is
  713. supported by TCP, a reliable end-to-end connection oriented protocol.
  714. A fundamental question is to what degree is it beneficial to map
  715. different flows above IP into separate connections below IP.  There is
  716. a broad spectrum of opinion on this.
  717.  
  718. As stated in section 4, at one end of the spectrum, IP would remain
  719. highly connectionless and set up single VCs between routers which are
  720. adjacent on an IP subnet and for which there was active traffic flow.
  721. All traffic between the such routers would be multiplexed on a single
  722. ATM VC. At the other end of the spectrum, a separate ATM VC would be
  723. created for each identifiable flow.  For every unique TCP or UDP
  724. address and port pair encountered a new VC would be required.  Part of
  725. the intensity of early arguments has been over failure to recognize
  726. that there is a middle ground.
  727.  
  728.  
  729.  
  730. Cole, Shur & Villamizar      Informational                     [Page 13]
  731.  
  732. RFC 1932           IP over ATM: A Framework Document          April 1996
  733.  
  734.  
  735. ATM offers QoS and traffic management capabilities that are well
  736. suited for certain types of services.  It may be advantageous to use
  737. separate ATM VC for such services.  Other IP services such as DNS, are
  738. ill suited for connection oriented delivery, due to their normal very
  739. short duration (typically one packet in each direction).  Short
  740. duration transactions, even many using TCP, may also be poorly suited
  741. for a connection oriented model due to setup and state overhead.  ATM
  742. QoS and traffic management capabilities may be poorly suited for
  743. elastic traffic.
  744.  
  745.     APPLICATION       Middle Ground
  746.     ----------------+-------------------------------------------------
  747.     General         _ Use RSVP or other indication which clearly
  748.                     _ indicate a VC is needed and what QoS parameters
  749.                     _ are appropriate.
  750.                     _
  751.     Short Duration  _ Forward hop by hop.  RSVP is unlikely to precede
  752.     UDP (DNS)       _ this type of traffic.
  753.                     _
  754.     Short Duration  _ Forward hop by hop unless RSVP indicates
  755.     TCP (SMTP)      _ otherwise.  RSVP is unlikely to precede this
  756.                     _ type of traffic.
  757.                     _
  758.     Elastic (TCP)   _ By default hop by hop forwarding is used.
  759.     Bulk Transfer   _ However, RSVP information, local configuration
  760.                     _ about TCP port number usage, or a locally
  761.                     _ implemented method for passing QoS information
  762.                     _ from the application to the IP/ATM driver may
  763.                     _ allow/suggest the establishment of direct VCs.
  764.                     _
  765.     Real Time       _ Forward hop by hop unless RSVP indicates
  766.     (audio, video)  _ otherwise.  RSVP will indicate QoS requirements.
  767.                     _ It is assumed RSVP will generally be used for
  768.                     _ this case.  A local decision can be made as to
  769.                     _ whether the QoS is better served by a separate
  770.                     _ VC.
  771.  
  772.  Table 3: Connection Oriented vs.  Connectionless - b) a middle ground
  773.                                 approach
  774.  
  775.  
  776.  
  777.  
  778.  
  779.  
  780.  
  781.  
  782.  
  783.  
  784.  
  785.  
  786. Cole, Shur & Villamizar      Informational                     [Page 14]
  787.  
  788. RFC 1932           IP over ATM: A Framework Document          April 1996
  789.  
  790.  
  791.     APPLICATION       Pure Connectionless Approach
  792.     ----------------+-------------------------------------------------
  793.     General         _ Always forward hop by hop.  Use queueing
  794.                     _ algorithms implemented at the IP layer to
  795.                     _ support reservations such as those specified by
  796.                     _ RSVP.
  797.                     _
  798.     Short Duration  _ Forward hop by hop.
  799.     UDP (DNS)       _
  800.                     _
  801.     Short Duration  _ Forward hop by hop.
  802.     TCP (SMTP)      _
  803.                     _
  804.     Elastic (TCP)   _ Forward hop by hop.  Assume ability of TCP to
  805.     Bulk Transfer   _ share bandwidth (within a VBR VC) works as well
  806.                     _ or better than ATM traffic management.
  807.                     _
  808.     Real Time       _ Forward hop by hop.  Assume that queueing
  809.     (audio, video)  _ algorithms at the IP level can be designed to
  810.                     _ work with sufficiently good performance
  811.                     _ (e.g., due to support for predictive
  812.                     _ reservation).
  813.  
  814.  
  815.       Table 4: Connection Oriented vs.  Connectionless - c) a pure
  816.                         connectionless approach
  817.  
  818.    Work in progress is addressing how QoS requirements might be
  819.    expressed and how the local decisions might be made as to whether
  820.    those requirements are best and/or most cost effectively accomplished
  821.    using ATM or IP capabilities.  Table 2, Table 3, and Table 4 describe
  822.    typical treatment of various types of traffic using a pure connection
  823.    oriented approach, middle ground approach, and pure connectionless
  824.    approach.
  825.  
  826.    The above qualitative description of connection oriented vs
  827.    connectionless service serve only as examples to illustrate differing
  828.    approaches.  Work in the area of an integrated service model, QoS and
  829.    resource reservation are related to but outside the scope of the IP
  830.    over ATM Work Group.  This work falls under the Integrated Services
  831.    Work Group (int-serv) and Reservation Protocol Work Group (rsvp), and
  832.    will ultimately determine when direct connections will be
  833.    established.  The IP over ATM Work Group can make more rapid progress
  834.    if concentrating solely on how direct connections are established.
  835.  
  836.  
  837.  
  838.  
  839.  
  840.  
  841.  
  842. Cole, Shur & Villamizar      Informational                     [Page 15]
  843.  
  844. RFC 1932           IP over ATM: A Framework Document          April 1996
  845.  
  846.  
  847. 6.  Crossing IP Subnet Boundaries
  848.  
  849.    A single IP subnet will not scale well to a large size.  Techniques
  850.    which extend the size of an IP subnet in other media include MAC
  851.    layer bridging, and proxy ARP bridging.
  852.  
  853.    MAC layer bridging alone does not scale well.  Protocols such as ARP
  854.    rely on the media broadcast to exchange address resolution
  855.    information.  Most bridges improve scaling characteristics by
  856.    capturing ARP packets and retaining the content, and distributing the
  857.    information among bridging peers.  The ARP information gathered from
  858.    ARP replies is broadcast only where explicit ARP requests are made.
  859.    This technique is known as proxy ARP.
  860.  
  861.    Proxy ARP bridging improves scaling by reducing broadcast traffic,
  862.    but still suffers scaling problems.  If the bridged IP subnet is part
  863.    of a larger internetwork, a routing protocol is required to indicate
  864.    what destinations are beyond the IP subnet unless a statically
  865.    configured default route is used.  A default route is only applicable
  866.    to a very simple topology with respect to the larger internet and
  867.    creates a single point of failure.  Because internets of enormous
  868.    size create scaling problems for routing protocols, the component
  869.    networks of such large internets are often partitioned into areas,
  870.    autonomous systems or routing domains, and routing confederacies.
  871.  
  872.    The scaling limits of the simple IP subnet require a large network to
  873.    be partitioned into smaller IP subnets.  For NBMA media like ATM,
  874.    there are advantages to creating direct connections across the entire
  875.    underlying NBMA network.  This leads to the need to create direct
  876.    connections across IP subnet boundaries.
  877.  
  878.  
  879.  
  880.  
  881.  
  882.  
  883.  
  884.  
  885.  
  886.  
  887.  
  888.  
  889.  
  890.  
  891.  
  892.  
  893.  
  894.  
  895.  
  896.  
  897.  
  898. Cole, Shur & Villamizar      Informational                     [Page 16]
  899.  
  900. RFC 1932           IP over ATM: A Framework Document          April 1996
  901.  
  902.  
  903.                                 .----------.
  904.                        ---------<  Non-ATM :
  905.           .-------.   /       /-<  Subnet  >-\
  906.           :Sub-ES >--/        :  ----------  :
  907.            -------            :              :
  908.                               :              :
  909.                            .--^---.       .--^---.
  910.                            :Router:       :Router:
  911.                             -v-v--         -v-v--
  912.                              : :            : :
  913.                   .--------. : : .--------. : : .--------.
  914.       .-------.   :        >-/ \-<        >-/ \-<        :   .-------.
  915.       :Sub-ES :---: Subnet :-----: Subnet :-----: Subnet :---:Sub-ES :
  916.        -------    :        :     :        :     :        :    -------
  917.                    --------       ---v----       --------
  918.                                      :
  919.                                   .--^----.
  920.                                   :Sub-ES :
  921.                                    -------
  922.  
  923.     Figure 3: A configuration with both ATM-based and non-ATM based
  924.                                 subnets.
  925.  
  926.    For example, figure 3 shows an end-to-end configuration consisting of
  927.    four components, three of which are ATM technology based, while the
  928.    fourth is a standard IP subnet based on non-ATM technology.  End-
  929.    systems (either hosts or routers) attached to the ATM-based networks
  930.    may communicate either using the Classical IP model or directly via
  931.    ATM (subject to policy constraints).  Such nodes may communicate
  932.    directly at the IP level without necessarily needing an intermediate
  933.    router, even if end-systems do not share a common IP-level network
  934.    prefix.  Communication with end-systems on the non-ATM-based
  935.    Classical IP subnet takes place via a router, following the Classical
  936.    IP model (see Section 8.1 below).
  937.  
  938.    Many of the problems and issues associated with creating such direct
  939.    connections across subnet boundaries were originally being addressed
  940.    in the IETF's IPLPDN working group and the IP over ATM working group.
  941.    This area is now being addressed in the Routing over Large Clouds
  942.    working group.  Examples of work performed in the IPLPDN working
  943.    group include short-cut routing (proposed by P. Tsuchiya) and
  944.    directed ARP RFC-1433 [5] over SMDS networks.  The ROLC working group
  945.    has produced the distributed ARP server architectures and the NBMA
  946.    Address Resolution Protocol (NARP) [7].  The Next Hop Resolution
  947.    Protocol (NHRP) is still work in progress, though the ROLC WG is
  948.    considering advancing the current document.  Questions/issues
  949.    specifically related to defining a capability to cross IP subnet
  950.    boundaries include:
  951.  
  952.  
  953.  
  954. Cole, Shur & Villamizar      Informational                     [Page 17]
  955.  
  956. RFC 1932           IP over ATM: A Framework Document          April 1996
  957.  
  958.  
  959.    o How can routing be optimized across multiple logical IP subnets
  960.      over both a common ATM based and a non-ATM based infrastructure.
  961.      For example, in Figure 3, there are two gateways/routers between
  962.      the non-ATM subnet and the ATM subnets.  The optimal path
  963.      from end-systems on any ATM-based subnet to the non ATM-based
  964.      subnet is a function of the routing state information of the two
  965.      routers.
  966.  
  967.    o How to incorporate policy routing constraints.
  968.  
  969.    o What is the proper coupling between routing and address
  970.      resolution particularly with respect to off-subnet communication.
  971.  
  972.    o What are the local procedures to be followed by hosts and
  973.      routers.
  974.  
  975.    o Routing between hosts not sharing a common IP-level (or L3)
  976.      network prefix, but able to be directly connected at the NBMA
  977.      media level.
  978.  
  979.    o Defining the details for an efficient address resolution
  980.      architecture including defining the procedures to be followed by
  981.      clients and servers (see RFC-1433 [5], RFC-1735 [7] and NHRP).
  982.  
  983.    o How to identify the need for and accommodate special purpose SVCs
  984.      for control or routing and high bandwidth data transfers.
  985.  
  986.    For ATM (unlike other NBMA media), an additional complexity in
  987.    supporting IP routing over these ATM internets lies in the
  988.    multiplicity of address formats in UNI 3.0 [4].  NSAP modeled address
  989.    formats only are supported on "private ATM" networks, while either 1)
  990.    E.164 only, 2) NSAP modeled formats only, or 3) both are supported on
  991.    "public ATM" networks.  Further, while both the E.164 and NSAP
  992.    modeled address formats are to be considered as network points of
  993.    attachment, it seems that E.164 only networks are to be considered as
  994.    subordinate to "private networks", in some sense.  This leads to some
  995.    confusion in defining an ARP mechanism in supporting all combinations
  996.    of end-to-end scenarios (refer to the discussion in Appendix A on the
  997.    possible scenarios to be supported by ARP).
  998.  
  999. 7.  Extensions to IP Routing
  1000.  
  1001.    RFC-1620 [3] describes the problems and issues associated with direct
  1002.    connections across IP subnet boundaries in greater detail, as well as
  1003.    possible solution approaches.  The ROLC WG has identified persistent
  1004.    routing loop problems that can occur if protocols which lose
  1005.    information critical to path vector routing protocol loop suppression
  1006.    are used to accomplish direct connections across IP subnet
  1007.  
  1008.  
  1009.  
  1010. Cole, Shur & Villamizar      Informational                     [Page 18]
  1011.  
  1012. RFC 1932           IP over ATM: A Framework Document          April 1996
  1013.  
  1014.  
  1015.    boundaries.
  1016.  
  1017.    The problems may arise when a destination network which is not on the
  1018.    NBMA network is reachable via different routers attached to the NBMA
  1019.    network.  This problem occurs with proposals that attempt to carry
  1020.    reachability information, but do not carry full path attributes (for
  1021.    path vector routing) needed for inter-AS path suppression, or full
  1022.    metrics (for distance vector or link state routing even if path
  1023.    vector routing is not used) for intra-AS routing.
  1024.  
  1025.    For example, the NHRP protocol may be used to support the
  1026.    establishment of direct connections across subnetwork boundaries.
  1027.    NHRP assumes that routers do run routing protocols (intra and/or
  1028.    inter domain) and/or static routing.  NHRP further assumes that
  1029.    forwarding tables constructed by these protocols result in a steady
  1030.    state loop-free forwarding.  Note that these two assumptions do not
  1031.    impose any additional requirements on routers, beyond what is
  1032.    required in the absence of NHRP.
  1033.  
  1034.    NHRP runs in addition to routing protocols, and provides the
  1035.    information that allows the elimination of multiple IP hops (the
  1036.    multiple IP hops result from the forwarding tables constructed by the
  1037.    routing protocols) when traversing an NBMA network.  The IPATM and
  1038.    ROLC WGs have both expended considerable effort in discussing and
  1039.    coming to understand these limitations.
  1040.  
  1041.    It is well-known that truncating path information in Path Vector
  1042.    protocols (e.g., BGP) or losing metric information in Distance Vector
  1043.    protocols (e.g., RIP) could result in persistent forwarding loops.
  1044.    These loops could occur without ATM and without NHRP.
  1045.  
  1046.    The combination of NHRP and static routing alone cannot be used in
  1047.    some topologies where some of the destinations are served by multiple
  1048.    routers on the NBMA. The combination of NHRP and an intra-AS routing
  1049.    protocol that does not carry inter-AS routing path attributes alone
  1050.    cannot be used in some topologies in which the NBMA will provide
  1051.    inter-AS transit connectivity to destinations from other AS served by
  1052.    multiple routers on the NBMA.
  1053.  
  1054.    Figure 4 provides an example of the routing loops that may be formed
  1055.    in these circumstances.  The example illustrates how the use of NHRP
  1056.    in the environment where forwarding loops could exist even without
  1057.    NHRP (due to either truncated path information or loss of metric
  1058.    information) would still produce forwarding loops.
  1059.  
  1060.    There are many potential scenarios for routing loops.  An example is
  1061.    given in Figure 4.  It is possible to produce a simpler example where
  1062.    a loop can form.  The example in Figure 4 illustrates a loop which
  1063.  
  1064.  
  1065.  
  1066. Cole, Shur & Villamizar      Informational                     [Page 19]
  1067.  
  1068. RFC 1932           IP over ATM: A Framework Document          April 1996
  1069.  
  1070.  
  1071.    will persist even if the protocol on the NBMA supports redirects or
  1072.    can invalidate any route which changes in any way, but does not
  1073.    support the communication of full metrics or path attributes.
  1074.  
  1075.     .----.    .----.
  1076.     : H1 >----< S1 :         Notes:
  1077.      ----      vvvv        H#n == host #n
  1078.                / : \        R#n == router #n
  1079.               /  :  \        S#n == subnet #n
  1080.       /------/   :   \
  1081.       :          :    \        S2 to R3 breaks
  1082.    .--^---.   .----. .-^--.
  1083.    :      :   : R4 : : R6 :
  1084.    : NBMA :    --v-   --v-      See the text for
  1085.    :      :      :      :       details of the
  1086.     -v--v-       =      =       looping conditions
  1087.      :   \       = SLOW =       and mechanisms
  1088.      :  .-^--.   = LINK =
  1089.      :  : R2 :   =      =
  1090.      :   --v-    :      :
  1091.      :     :  .--^-. .--^-.
  1092.    .-^--.  :  : R5 : : R7 :
  1093.    : R8 :  :   --v-   --v-
  1094.     --v-    \    :      :
  1095.       :      \  /       :
  1096.        \    .-^^-.   .--^-.
  1097.         \   : S2 :   : S4 :
  1098.          \   --v-     --v-
  1099.           \     \      /
  1100.            \     \    /
  1101.             \    .^--^.
  1102.              \   : R3 :    path before the break is
  1103.               \   -v--    H1->S1->R1->NBMA->R2->S2->R3->H2
  1104.                \  /
  1105.      .----.   .-^^-.    path after the break is
  1106.      : H2 >---< S3 :    H1->S1->R1->NBMA->R2->S2->R5->R4->S1
  1107.       ----     ----         \------<--the-loop--<-------/
  1108.  
  1109.       Figure 4:  A Routing Loop Due to Lost PV Routing Attributes.
  1110.  
  1111.    In the example in Figure 4, Host 1 is sending traffic toward Host 2.
  1112.    In practice, host routes would not be used, so the destination for
  1113.    the purpose of routing would be Subnet 3.  The traffic travels by way
  1114.    of Router 1 which establishes a "cut-through" SVC to the NBMA next-
  1115.    hop, shown here as Router 2.  Router 2 forwards traffic destined for
  1116.    Subnet 3 through Subnet 2 to Router 3.  Traffic from Host 1 would
  1117.    then reach Host 2.
  1118.  
  1119.  
  1120.  
  1121.  
  1122. Cole, Shur & Villamizar      Informational                     [Page 20]
  1123.  
  1124. RFC 1932           IP over ATM: A Framework Document          April 1996
  1125.  
  1126.  
  1127.    Router 1's cut-through routing implementation caches an association
  1128.    between Host 2's IP address (or more likely all of Subnet 3) and
  1129.    Router 2's NBMA address.  While the cut-through SVC is still up, Link
  1130.    1 fails.  Router 5 loses it's preferred route through Router 3 and
  1131.    must direct traffic in the other direction.  Router 2 loses a route
  1132.    through Router 3, but picks up an alternate route through Router 5.
  1133.    Router 1 is still directing traffic toward Router 2 and advertising a
  1134.    means of reaching Subnet 3 to Subnet 1.  Router 5 and Router 2 will
  1135.    see a route, creating a loop.
  1136.  
  1137.    This loop would not form if path information normally carried by
  1138.    interdomain routing protocols such as BGP and IDRP were retained
  1139.    across the NBMA. Router 2 would reject the initial route from Router
  1140.    5 due to the path information.  When Router 2 declares the route to
  1141.    Subnet 3 unreachable, Router 1 withdraws the route from routing at
  1142.    Subnet 1, leaving the route through Router 4, which would then reach
  1143.    Router 5, and would reach Router 2 through both Router 1 and Router
  1144.    5.  Similarly, a link state protocol would not form such a loop.
  1145.  
  1146.    Two proposals for breaking this form of routing loop have been
  1147.    discussed.  Redirect in this example would have no effect, since
  1148.    Router 2 still has a route, just has different path attributes.  A
  1149.    second proposal is that is that when a route changes in any way, the
  1150.    advertising NBMA cut-through router invalidates the advertisement for
  1151.    some time period.  This is similar to the notion of Poison Reverse in
  1152.    distance vector routing protocols.  In this example, Router 2 would
  1153.    eventually readvertise a route since a route through Router 6 exists.
  1154.    When Router 1 discovers this route, it will advertise it to Subnet 1
  1155.    and form the loop.  Without path information, Router 1 cannot
  1156.    distinguish between a loop and restoration of normal service through
  1157.    the link L1.
  1158.  
  1159.    The loop in Figure 4 can be prevented by configuring Router 4 or
  1160.    Router 5 to refuse to use the reverse path.  This would break backup
  1161.    connectivity through Router 8 if L1 and L3 failed.  The loop can also
  1162.    be broken by configuring Router 2 to refuse to use the path through
  1163.    Router 5 unless it could not reach the NBMA. Special configuration of
  1164.    Router 2 would work as long as Router 2 was not distanced from Router
  1165.    3 and Router 5 by additional subnets such that it could not determine
  1166.    which path was in use.  If Subnet 1 is in a different AS or RD than
  1167.    Subnet 2 or Subnet 4, then the decision at Router 2 could be based on
  1168.    path information.
  1169.  
  1170.  
  1171.  
  1172.  
  1173.  
  1174.  
  1175.  
  1176.  
  1177.  
  1178. Cole, Shur & Villamizar      Informational                     [Page 21]
  1179.  
  1180. RFC 1932           IP over ATM: A Framework Document          April 1996
  1181.  
  1182.  
  1183.                         .--------.    .--------.
  1184.                         : Router :    : Router :
  1185.                          --v-v---      ---v-v--
  1186.                            : :            : :
  1187.    .--------.   .--------. : : .--------. : : .--------.   .--------.
  1188.    : Sub-ES :---: Subnet :-/ \-: Subnet :-/ \-: Subnet :---: Sub-ES :
  1189.     --------     --------       --------       --------     --------
  1190.  
  1191.  Figure 5: The Classical IP model as a concatenation of three separate
  1192.                             ATM IP subnets.
  1193.  
  1194.    In order for loops to be prevented by special configuration at the
  1195.    NBMA border router, that router would need to know all paths that
  1196.    could lead back to the NBMA. The same argument that special
  1197.    configuration could overcome loss of path information was posed in
  1198.    favor of retaining the use of the EGP protocol defined in the now
  1199.    historic RFC-904 [11].  This turned out to be unmanageable, with
  1200.    routing problems occurring when topology was changed elsewhere.
  1201.  
  1202. 8.  IP Over ATM Proposals
  1203.  
  1204. 8.1  The Classical IP Model
  1205.  
  1206.    The Classical IP Model was suggested at the Spring 1993 IETF meeting
  1207.    [8] and retains the classical IP subnet architecture.  This model
  1208.    simply consists of cascading instances of IP subnets with IP-level
  1209.    (or L3) routers at IP subnet borders.  An example realization of this
  1210.    model consists of a concatenation of three IP subnets.  This is shown
  1211.    in Figure 5.  Forwarding IP packets over this Classical IP model is
  1212.    straight forward using already well established routing techniques
  1213.    and protocols.
  1214.  
  1215.    SVC-based ATM IP subnets are simplified in that they:
  1216.  
  1217.    o limit the number of hosts which must be directly connected at any
  1218.      given time to those that may actually exchange traffic.
  1219.  
  1220.    o The ATM network is capable of setting up connections between
  1221.      any pair of hosts.  Consistent with the standard IP routing
  1222.      algorithm [2] connectivity to the "outside" world is achieved
  1223.      only through a router, which may provide firewall functionality
  1224.      if so desired.
  1225.  
  1226.    o The IP subnet supports an efficient mechanism for address
  1227.      resolution.
  1228.  
  1229.    Issues addressed by the IP Over ATM Working Group, and some of the
  1230.    resolutions, for this model are:
  1231.  
  1232.  
  1233.  
  1234. Cole, Shur & Villamizar      Informational                     [Page 22]
  1235.  
  1236. RFC 1932           IP over ATM: A Framework Document          April 1996
  1237.  
  1238.  
  1239.    o Methods of encapsulation and multiplexing.  This issue is
  1240.      addressed in RFC-1483 [6], in which two methods of encapsulation
  1241.      are defined, an LLC/SNAP and a per-VC multiplexing option.
  1242.  
  1243.    o The definition of an address resolution server (defined in
  1244.      RFC-1577).
  1245.  
  1246.    o Defining the default MTU size.  This issue is addressed in
  1247.      RFC-1626 [1] which proposes the use of the MTU discovery
  1248.      protocol (RFC-1191 [9]).
  1249.  
  1250.    o Support for IP multicasting.  In the summer of 1994, work began
  1251.      on the issue of supporting IP multicasting over the SVC LATM
  1252.      model.  The proposal for IP multicasting is currently defined by
  1253.      a set of IP over ATM WG Works in Progress, referred to collectively
  1254.      as the IPMC documents.  In order to support IP multicasting the
  1255.      ATM subnet must either support point-to- multipoint SVCs, or
  1256.      multicast servers, or both.
  1257.  
  1258.    o Defining interim SVC parameters, such as QoS parameters and
  1259.      time-out values.
  1260.  
  1261.    o Signaling and negotiations of parameters such as MTU size
  1262.      and method of encapsulation.  RFC-1755 [10] describes an
  1263.      implementation agreement for routers signaling the ATM network
  1264.      to establish SVCs initially based upon the ATM Forum's UNI
  1265.      version 3.0 specification [4], and eventually to be based
  1266.      upon the ATM Forum's UNI version 3.1 and later specifications.
  1267.      Topics addressed in RFC-1755 include (but are not limited to)
  1268.      VC management procedures, e.g., when to time-out SVCs, QOS
  1269.      parameters, service classes, explicit setup message formats for
  1270.      various encapsulation methods, node (host or router) to node
  1271.      negotiations, etc.
  1272.  
  1273.    RFC-1577 is also applicable to PVC-based subnets.  Full mesh PVC
  1274.    connectivity is required.
  1275.  
  1276.    For more information see RFC-1577 [8].
  1277.  
  1278. 8.2 The ROLC NHRP Model
  1279.  
  1280.    The Next Hop Resolution Protocol (NHRP), currently a work in progress
  1281.    defined by the Routing Over Large Clouds Working Group (ROLC),
  1282.    performs address resolution to accomplish direct connections across
  1283.    IP subnet boundaries.  NHRP can supplement RFC-1577 ARP. There has
  1284.    been recent discussion of replacing RFC-1577 ARP with NHRP. NHRP can
  1285.    also perform a proxy address resolution to provide the address of the
  1286.    border router serving a destination off of the NBMA which is only
  1287.  
  1288.  
  1289.  
  1290. Cole, Shur & Villamizar      Informational                     [Page 23]
  1291.  
  1292. RFC 1932           IP over ATM: A Framework Document          April 1996
  1293.  
  1294.  
  1295.    served by a single router on the NBMA. NHRP as currently defined
  1296.    cannot be used in this way to support addresses learned from routers
  1297.    for which the same destinations may be heard at other routers,
  1298.    without the risk of creating persistent routing loops.
  1299.  
  1300. 8.3 "Conventional" Model
  1301.  
  1302.    The "Conventional Model" assumes that a router can relay IP packets
  1303.    cell by cell, with the VPI/VCI identifying a flow between adjacent
  1304.    routers rather than a flow between a pair of nodes.  A latency
  1305.    advantage can be provided if cell interleaving from multiple IP
  1306.    packets is allowed.  Interleaving frames within the same VCI requires
  1307.    an ATM AAL such as AAL3/4 rather than AAL5.  Cell forwarding is
  1308.    accomplished through a higher level mapping, above the ATM VCI layer.
  1309.  
  1310.    The conventional model is not under consideration by the IP/ATM WG.
  1311.    The COLIP WG has been formed to develop protocols based on the
  1312.    conventional model.
  1313.  
  1314. 8.4 The Peer Model
  1315.  
  1316.    The Peer Model places IP routers/gateways on an addressing peer basis
  1317.    with corresponding entities in an ATM cloud (where the ATM cloud may
  1318.    consist of a set of ATM networks, inter-connected via UNI or P-NNI
  1319.    interfaces).  ATM network entities and the attached IP hosts or
  1320.    routers exchange call routing information on a peer basis by
  1321.    algorithmically mapping IP addressing into the NSAP space.  Within
  1322.    the ATM cloud, ATM network level addressing (NSAP-style), call
  1323.    routing and packet formats are used.
  1324.  
  1325.    In the Peer Model no provision is made for selection of primary path
  1326.    and use of alternate paths in the event of primary path failure in
  1327.    reaching multihomed non-ATM destinations.  This will limit the
  1328.    topologies for which the peer model alone is applicable to only those
  1329.    topologies in which non-ATM networks are singly homed, or where loss
  1330.    of backup connectivity is not an issue.  The Peer Model may be used
  1331.    to avoid the need for an address resolution protocol and in a proxy-
  1332.    ARP mode for stub networks, in conjunction with other mechanisms
  1333.    suitable to handle multihomed destinations.
  1334.  
  1335.    During the discussions of the IP over ATM working group, it was felt
  1336.    that the problems with the end-to-end peer model were much harder
  1337.    than any other model, and had more unresolved technical issues.
  1338.    While encouraging interested individuals/companies to research this
  1339.    area, it was not an initial priority of the working group to address
  1340.    these issues.  The ATM Forum Network Layer Multiprotocol Working
  1341.    Group has reached a similar conclusion.
  1342.  
  1343.  
  1344.  
  1345.  
  1346. Cole, Shur & Villamizar      Informational                     [Page 24]
  1347.  
  1348. RFC 1932           IP over ATM: A Framework Document          April 1996
  1349.  
  1350.  
  1351. 8.5 The PNNI and the Integrated Models
  1352.  
  1353.    The Integrated model (proposed and under study within the
  1354.    Multiprotocol group of ATM Forum) considers a single routing protocol
  1355.    to be used for both IP and for ATM. A single routing information
  1356.    exchange is used to distribute topological information.  The routing
  1357.    computation used to calculate routes for IP will take into account
  1358.    the topology, including link and node characteristics, of both the IP
  1359.    and ATM networks and calculates an optimal route for IP packets over
  1360.    the combined topology.
  1361.  
  1362.    The PNNI is a hierarchical link state routing protocol with multiple
  1363.    link metrics providing various available QoS parameters given current
  1364.    loading.  Call route selection takes into account QoS requirements.
  1365.    Hysteresis is built into link metric readvertisements in order to
  1366.    avoid computational overload and topological hierarchy serves to
  1367.    subdivide and summarize complex topologies, helping to bound
  1368.    computational requirements.
  1369.  
  1370.    Integrated Routing is a proposal to use PNNI routing as an IP routing
  1371.    protocol.  There are several sets of technical issues that need to be
  1372.    addressed, including the interaction of multiple routing protocols,
  1373.    adaptation of PNNI to broadcast media, support for NHRP, and others.
  1374.    These are being investigated.  However, the ATM Forum MPOA group is
  1375.    not currently performing this investigation.  Concerned individuals
  1376.    are, with an expectation of bringing the work to the ATM Forum and
  1377.    the IETF.
  1378.  
  1379.    PNNI has provisions for carrying uninterpreted information.  While
  1380.    not yet defined, a compatible extension of the base PNNI could be
  1381.    used to carry external routing attributes and avoid the routing loop
  1382.    problems described in Section 7.
  1383.  
  1384.  
  1385.  
  1386.  
  1387.  
  1388.  
  1389.  
  1390.  
  1391.  
  1392.  
  1393.  
  1394.  
  1395.  
  1396.  
  1397.  
  1398.  
  1399.  
  1400.  
  1401.  
  1402. Cole, Shur & Villamizar      Informational                     [Page 25]
  1403.  
  1404. RFC 1932           IP over ATM: A Framework Document          April 1996
  1405.  
  1406.  
  1407.                ++++++++++++++++++++++++++++++++++++++++++
  1408.                +   .------------.      .------------.   +
  1409.    .---------. + .-:            :-.  .-:            :-. +
  1410.    : Host or >-+-< : Single ATM : >--< : Single ATM : >-+-----\
  1411.    : Router  : + : :   Domain   : :  : :   Domain   : : +     :
  1412.     ---------  +  -:            :-    -:            :-  + .---^----.
  1413.                +    ------------        ------------    + : Router :
  1414.                +                       .------------.   +  ---v----
  1415.    .---------. +                     .-:            :-. +     :
  1416.    : Host or >-+- ...          ... --< : Single ATM : >-+-----/
  1417.    : Router  : +                     : :   Domain   : : +
  1418.     ---------  +  ATM Cloud           -:            :-  +
  1419.                +                        ------------    +
  1420.                ++++++++++++++++++++++++++++++++++++++++++
  1421.  
  1422.                   Note: IS within ATM cloud are ATM IS
  1423.  
  1424.   Figure 6: The ATM transition model assuming the presence of gateways
  1425.      or routers between the ATM networks and the ATM peer networks.
  1426.  
  1427. 8.6 Transition Models
  1428.  
  1429.    Finally, it is useful to consider transition models, lying somewhere
  1430.    between the Classical IP Models and the Peer and Integrated Models.
  1431.    Some possible architectures for transition models have been suggested
  1432.    by Fong Liaw.  Others are possible, for example Figure 6 showing a
  1433.    Classical IP transition model which assumes the presence of gateways
  1434.    between ATM networks and ATM Peer networks.
  1435.  
  1436.    Some of the models described in the prior sections, most notably the
  1437.    Integrated Model, anticipate the need for mixed environment with
  1438.    complex routing topologies.  These inherently support transition
  1439.    (possibly with an indefinite transition period).  Models which
  1440.    provide no transition support are primarily of interest to new
  1441.    deployments which make exclusive, or near exclusive use of ATM or
  1442.    deployments capable of wholesale replacement of existing networks or
  1443.    willing to retain only non-ATM stub networks.
  1444.  
  1445.    For some models, most notably the Peer Model, the ability to attach
  1446.    to a large non-ATM or mixed internetwork is infeasible without
  1447.    routing support at a higher level, or at best may pose
  1448.    interconnection topology constraints (for example: single point of
  1449.    attachment and a static default route).  If a particular model
  1450.    requires routing support at a higher level a large deployment will
  1451.    need to be subdivided to provide scalability at the higher level,
  1452.    which for some models degenerates back to the Classical model.
  1453.  
  1454.  
  1455.  
  1456.  
  1457.  
  1458. Cole, Shur & Villamizar      Informational                     [Page 26]
  1459.  
  1460. RFC 1932           IP over ATM: A Framework Document          April 1996
  1461.  
  1462.  
  1463. 9.  Application of the Working Group's and Related Documents
  1464.  
  1465.    The IP Over ATM Working Group has generated several Works in Progress
  1466.    and RFCs.  This section identifies the relationship of these and
  1467.    other related documents to the various IP Over ATM Models identified
  1468.    in this document.  The documents and RFCs produced to date are the
  1469.    following references, RFC-1483 [6], RFC-1577 [8], RFC-1626 [1], RFC-
  1470.    1755 [10] and the IPMC documents.  The ROLC WG has produced the NHRP
  1471.    document.  Table 5 gives a summary of these documents and their
  1472.    relationship to the various IP Over ATM Models.
  1473.  
  1474. Acknowledgments
  1475.  
  1476.    This memo is the direct result of the numerous discussions of the IP
  1477.    over ATM Working Group of the Internet Engineering Task Force.  The
  1478.    authors also had the benefit of several private discussions with H.
  1479.    Nguyen of AT&T Bell Laboratories.  Brian Carpenter of CERN was kind
  1480.    enough to contribute the TULIP and TUNIC sections to this memo.
  1481.    Grenville Armitage of Bellcore was kind enough to contribute the
  1482.    sections on VC binding, encapsulations and the use of B-LLI
  1483.    information elements to signal such bindings.  The text of Appendix A
  1484.    was pirated liberally from Anthony Alles' of Cisco posting on the IP
  1485.    over ATM discussion list (and modified at the authors' discretion).
  1486.    M. Ohta provided a description of the Conventional Model (again which
  1487.    the authors modified at their discretion).  This memo also has
  1488.    benefitted from numerous suggestions from John T. Amenyo of ANS, Joel
  1489.    Halpern of Newbridge, and Andy Malis of Ascom-Timplex.  Yakov Rekhter
  1490.    of Cisco provided valuable comments leading to the clarification of
  1491.    normal loop free NHRP operation and the potential for routing loop
  1492.    problems only with the improper use of NHRP.
  1493.  
  1494.     Documents         Summary
  1495.     ----------------+-------------------------------------------------
  1496.     RFC-1483        _ How to identify/label multiple
  1497.                     _ packet/frame-based protocols multiplexed over
  1498.                     _ ATM AAL5. Applies to any model dealing with IP
  1499.                     _ over ATM AAL5.
  1500.                     _
  1501.     RFC-1577        _ Model for transporting IP and ARP over ATM AAL5
  1502.                     _ in an IP subnet where all nodes share a common
  1503.                     _ IP network prefix.  Includes ARP server/Inv-ARP
  1504.                     _ packet formats and procedures for SVC/PVC
  1505.                     _ subnets.
  1506.                     _
  1507.     RFC-1626        _ Specifies default IP MTU size to be used with
  1508.                     _ ATM AAL5. Requires use of PATH MTU discovery.
  1509.                     _ Applies to any model dealing with IP over ATM
  1510.                     _ AAL5
  1511.  
  1512.  
  1513.  
  1514. Cole, Shur & Villamizar      Informational                     [Page 27]
  1515.  
  1516. RFC 1932           IP over ATM: A Framework Document          April 1996
  1517.  
  1518.  
  1519.                     _
  1520.     RFC-1755        _ Defines how implementations of IP over ATM
  1521.                     _ should use ATM call control signaling
  1522.                     _ procedures, and recommends values of mandatory
  1523.                     _ and optional IEs focusing particularly on the
  1524.                     _ Classical IP model.
  1525.                     _
  1526.     IPMC            _ Defines how to support IP multicast in Classical
  1527.                     _ IP model using either (or both) meshes of
  1528.                     _ point-to-multipoint ATM VCs, or multicast
  1529.                     _ server(s).  IPMC is work in progress.
  1530.                     _
  1531.     NHRP            _ Describes a protocol that can be used by hosts
  1532.                     _ and routers to determine the NBMA next hop
  1533.                     _ address of a destination in "NBMA
  1534.                     _ connectivity"
  1535.                     _ of the sending node.  If the destination is not
  1536.                     _ connected to the NBMA fabric, the IP and NBMA
  1537.                     _ addresses of preferred egress points are
  1538.                     _ returned.  NHRP is work in progress (ROLC WG).
  1539.  
  1540.  
  1541.                    Table 5:  Summary of WG Documents
  1542.  
  1543. References
  1544.  
  1545.    [1] Atkinson, R., "Default IP MTU for use over ATM AAL5", RFC 1626,
  1546.        Naval Research Laboratory, May 1994.
  1547.  
  1548.    [2] Braden, R., and J. Postel, "Requirements for Internet Gateways",
  1549.        STD 4, RFC 1009, USC/Information Sciences Institute, June 1987.
  1550.  
  1551.    [3] Braden, R., Postel, J., and Y. Rekhter, "Internet Architecture
  1552.        Extensions for Shared Media", RFC 1620, USC/Information Sciences
  1553.        Institute, IBM Research, May 1994.
  1554.  
  1555.    [4] ATM Forum, "ATM User-Network Interface Specification",  Prentice
  1556.        Hall, September 1993.
  1557.  
  1558.    [5] Garrett, J., Hagan, J., and J. Wong, "Directed ARP", RFC 1433,
  1559.        AT&T Bell Labs, University of Pennsylvania, March 1993.
  1560.  
  1561.    [6] Heinanen, J., "Multiprotocol Encapsulation over ATM Adaptation
  1562.        Layer 5", RFC 1483, Telecom Finland, July 1993.
  1563.  
  1564.    [7] Heinanen, J., and R. Govindan, "NBMA Address Resolution Protocol
  1565.        (NARP)", RFC 1735, Telecom Finland, USC/Information Sciences
  1566.        Institute, December 1994.
  1567.  
  1568.  
  1569.  
  1570. Cole, Shur & Villamizar      Informational                     [Page 28]
  1571.  
  1572. RFC 1932           IP over ATM: A Framework Document          April 1996
  1573.  
  1574.  
  1575.    [8] Laubach, M., "Classical IP and ARP over ATM", RFC 1577,
  1576.        Hewlett-Packard Laboratories, January 1994.
  1577.  
  1578.    [9] Mogul, J., and S. Deering, "Path MTU Discovery", RFC 1191,
  1579.        DECWRL, Stanford University, November 1990.
  1580.  
  1581.   [10] Perez, M., Liaw, F., Grossman, D., Mankin, A., and A. Hoffman,
  1582.        "ATM signalling support for IP over ATM", RFC  1755,
  1583.        USC/Information Sciences Institute, FORE Systems, Inc., Motorola
  1584.        Codex, Ascom Timeplex, Inc., January 1995.
  1585.  
  1586.   [11] Mills, D., "Exterior Gateway Protocol Formal Specification",
  1587.        STD 18, RFC 904, BBN, April 1984.
  1588.  
  1589. A Potential Interworking Scenarios to be Supported by ARP
  1590.  
  1591.    The architectural model of the VC routing protocol, being defined by
  1592.    the Private Network-to-Network Interface (P-NNI) working group of the
  1593.    ATM Forum, categorizes ATM networks into two types:
  1594.  
  1595.    o Those that participate in the VC routing protocols and use NSAP
  1596.      modeled addresses UNI 3.0 [4] (referred to as private networks,
  1597.      for short), and
  1598.  
  1599.    o Those that do not participate in the VC routing protocol.
  1600.      Typically, but possibly not in all cases, public ATM networks
  1601.      that use native mode E.164 addresses UNI 3.0 [4] will fall into
  1602.      this later category.
  1603.  
  1604.    The issue for ARP, then is to know what information must be returned
  1605.    to allow such connectivity.  Consider the following scenarios:
  1606.  
  1607.    o Private host to Private Host, no intervening public transit
  1608.      network(s): Clearly requires that ARP return only the NSAP
  1609.      modeled address format of the end host.
  1610.  
  1611.    o Private host to Private host, through intervening public
  1612.      networks: In this case, the connection setup from host A to host
  1613.      B must transit the public network(s).  This requires that at
  1614.      each ingress point to the public network that a routing decision
  1615.      be made as to which is the correct egress point from that public
  1616.      network to the next hop private ATM switch, and that the native
  1617.      E.164 address of that egress point be found (finding this is a VC
  1618.      routing problem, probably requiring configuration of the public
  1619.      network links and connectivity information).  ARP should return,
  1620.      at least, the NSAP address of the endpoint in which case the
  1621.      mapping of the NSAP addresses to the E.164 address, as specified
  1622.      in [4], is the responsibility of ingress switch to the public
  1623.  
  1624.  
  1625.  
  1626. Cole, Shur & Villamizar      Informational                     [Page 29]
  1627.  
  1628. RFC 1932           IP over ATM: A Framework Document          April 1996
  1629.  
  1630.  
  1631.      network.
  1632.  
  1633.    o Private Network Host to Public Network Host: To get connectivity
  1634.      between the public node and the private nodes requires the
  1635.      same kind of routing information discussed above - namely, the
  1636.      directly attached public network needs to know the (NSAP format)
  1637.      ATM address of the private station, and the native E.164 address
  1638.      of the egress point from the public network to that private
  1639.      network (or to that of an intervening transit private network
  1640.      etc.).  There is some argument, that the ARP mechanism could
  1641.      return this egress point native E.164 address, but this may
  1642.      be considered inconsistent for ARP to return what to some is
  1643.      clearly routing information, and to others is required signaling
  1644.      information.
  1645.  
  1646.    In the opposite direction, the private network node can use, and
  1647.    should only get, the E.164 address of the directly attached public
  1648.    node.  What format should this information be carried in?  This
  1649.    question is clearly answered, by Note 9 of Annex A of UNI 3.0 [4],
  1650.    vis:
  1651.  
  1652.       "A call originated on a Private UNI destined for an host which
  1653.       only has a native (non-NSAP) E.164 address (i.e.  a system
  1654.       directly attached to a public network supporting the native E.164
  1655.       format) will code the Called Party number information element in
  1656.       the (NSAP) E.164 private ATM Address Format, with the RD, AREA,
  1657.       and ESI fields set to zero.  The Called Party Subaddress
  1658.       information element is not used."
  1659.  
  1660.    Hence, in this case, ARP should return the E.164 address of the
  1661.    public ATM station in NSAP format.  This is essentially implying an
  1662.    algorithmic resolution between the native E.164 and NSAP addresses of
  1663.    directly attached public stations.
  1664.  
  1665.    o Public network host to Public network host, no intervening
  1666.      private network: In this case, clearly the Q.2931 requests would
  1667.      use native E.164 address formats.
  1668.  
  1669.    o Public network host to Public network host, intervening private
  1670.      network: same as the case immediately above, since getting
  1671.      to and through the private network is a VC routing, not an
  1672.      addressing issue.
  1673.  
  1674.    So several issues arise for ARP in supporting arbitrary connections
  1675.    between hosts on private and public network.  One is how to
  1676.    distinguish between E.164 address and E.164 encoded NSAP modeled
  1677.    address.  Another is what is the information to be supplied by ARP,
  1678.    e.g., in the public to private scenario should ARP return only the
  1679.  
  1680.  
  1681.  
  1682. Cole, Shur & Villamizar      Informational                     [Page 30]
  1683.  
  1684. RFC 1932           IP over ATM: A Framework Document          April 1996
  1685.  
  1686.  
  1687.    private NSAP modeled address or both an E.164 address, for a point of
  1688.    attachment between the public and private networks, along with the
  1689.    private NSAP modeled address.
  1690.  
  1691. Authors' Addresses
  1692.  
  1693.    Robert G. Cole
  1694.    AT&T Bell Laboratories
  1695.    101 Crawfords Corner Road, Rm. 3L-533
  1696.    Holmdel, NJ 07733
  1697.  
  1698.    Phone: (908) 949-1950
  1699.    Fax: (908) 949-8887
  1700.    EMail: rgc@qsun.att.com
  1701.  
  1702.  
  1703.    David H. Shur
  1704.    AT&T Bell Laboratories
  1705.    101 Crawfords Corner Road, Rm. 1F-338
  1706.    Holmdel, NJ 07733
  1707.  
  1708.    Phone: (908) 949-6719
  1709.    Fax: (908) 949-5775
  1710.    EMail: d.shur@att.com
  1711.  
  1712.  
  1713.    Curtis Villamizar
  1714.    ANS
  1715.    100 Clearbrook Road
  1716.    Elmsford, NY 10523
  1717.  
  1718.    EMail: curtis@ans.net
  1719.  
  1720.  
  1721.  
  1722.  
  1723.  
  1724.  
  1725.  
  1726.  
  1727.  
  1728.  
  1729.  
  1730.  
  1731.  
  1732.  
  1733.  
  1734.  
  1735.  
  1736.  
  1737.  
  1738. Cole, Shur & Villamizar      Informational                     [Page 31]
  1739.  
  1740.