home *** CD-ROM | disk | FTP | other *** search
/ Internet Info 1997 December / Internet_Info_CD-ROM_Walnut_Creek_December_1997.iso / rfc / rfc2191 < prev    next >
Text File  |  1997-09-10  |  31KB  |  676 lines

  1.  
  2.  
  3.  
  4.  
  5.  
  6.  
  7. Network Working Group                                      G. Armitage
  8. Request for Comments: 2191                         Lucent Technologies
  9. Category: Informational                                 September 1997
  10.  
  11.  
  12.                VENUS - Very Extensive Non-Unicast Service
  13.  
  14. Status of this Memo
  15.  
  16.    This memo provides information for the Internet community.  This memo
  17.    does not specify an Internet standard of any kind.  Distribution of
  18.    this memo is unlimited.
  19.  
  20. Abstract
  21.  
  22.    The MARS model (RFC2022) provides a solution to intra-LIS IP
  23.    multicasting over ATM, establishing and managing the use of ATM pt-
  24.    mpt SVCs for IP multicast packet forwarding. Inter-LIS multicast
  25.    forwarding is achieved using Mrouters, in a similar manner to which
  26.    the "Classical IP over ATM" model uses Routers to inter-connect LISes
  27.    for unicast traffic. The development of unicast IP shortcut
  28.    mechanisms (e.g.  NHRP) has led some people to request the
  29.    development of a Multicast equivalent. There are a number of
  30.    different approaches. This document focuses exclusively on the
  31.    problems associated with extending the MARS model to cover multiple
  32.    clusters or clusters spanning more than one subnet. It describes a
  33.    hypothetical solution, dubbed "Very Extensive NonUnicast Service"
  34.    (VENUS), and shows how complex such a service would be. It is also
  35.    noted that VENUS ultimately has the look and feel of a single, large
  36.    cluster using a distributed MARS.  This document is being issued to
  37.    help focus ION efforts towards alternative solutions for establishing
  38.    ATM level multicast connections between LISes.
  39.  
  40. 1. Introduction
  41.  
  42.    The classical model of the Internet running over an ATM cloud
  43.    consists of multiple Logical IP Subnets (LISs) interconnected by IP
  44.    Routers [1].  The evolving IP Multicast over ATM solution (the "MARS
  45.    model" [2]) retains the classical model. The LIS becomes a "MARS
  46.    Cluster", and Clusters are interconnected by conventional IP
  47.    Multicast routers (Mrouters).
  48.  
  49.    The development of NHRP [3], a protocol for discovering and managing
  50.    unicast forwarding paths that bypass IP routers, has led to some
  51.    calls for an IP multicast equivalent.  Unfortunately, the IP
  52.    multicast service is a rather different beast to the IP unicast
  53.    service. This document aims to explain how much of what has been
  54.    learned during the development of NHRP must be carefully scrutinized
  55.  
  56.  
  57.  
  58. Armitage                     Informational                      [Page 1]
  59.  
  60. RFC 2191                         VENUS                    September 1997
  61.  
  62.  
  63.    before being re-applied to the multicast scenario. Indeed, the
  64.    service provided by the MARS and MARS Clients in [2] are almost
  65.    orthogonal to the IP unicast service over ATM.
  66.  
  67.    For the sake of discussion, let's call this hypothetical multicast
  68.    shortcut discovery protocol the "Very Extensive Non-Unicast Service"
  69.    (VENUS). A "VENUS Domain" is defined as the set of hosts from two or
  70.    more participating Logical IP Subnets (LISs). A multicast shortcut
  71.    connection is a point to multipoint SVC whose leaf nodes are
  72.    scattered around the VENUS Domain. (It will be noted in section 2
  73.    that a VENUS Domain might consist of a single MARS Cluster spanning
  74.    multiple LISs, or multiple MARS Clusters.)
  75.  
  76.    VENUS faces a number of fundamental problems. The first is exploding
  77.    the scope over which individual IP/ATM interfaces must track and
  78.    react to IP multicast group membership changes. Under the classical
  79.    IP routing model Mrouters act as aggregation points for multicast
  80.    traffic flows in and out of Clusters [4]. They also act as
  81.    aggregators of group membership change information - only the IP/ATM
  82.    interfaces within each Cluster need to know the specific identities
  83.    of their local (intra-cluster) group members at any given time.
  84.    However, once you have sources within a VENUS Domain establishing
  85.    shortcut connections the data and signaling plane aggregation of
  86.    Mrouters is lost. In order for all possible sources throughout a
  87.    VENUS Domain to manage their outgoing pt-mpt SVCs they must be kept
  88.    aware of MARS_JOINs and MARS_LEAVEs occuring in every MARS Cluster
  89.    that makes up a VENUS Domain. The nett effect is that a VENUS domain
  90.    looks very similar to a single, large distributed MARS Cluster.
  91.  
  92.    A second problem is the impact that shortcut connections will have on
  93.    IP level Inter Domain Multicast Routing (IDMR) protocols. Multicast
  94.    groups have many sources and many destinations scattered amongst the
  95.    participating Clusters. IDMR protocols assume that they can calculate
  96.    efficient inter-Cluster multicast trees by aggregating individual
  97.    sources or group members in any given Cluster (subnet) behind the
  98.    Mrouter serving that Cluster. If sources are able to simply bypass an
  99.    Mrouter we introduce a requirement that the existence of each and
  100.    every shortcut connection be propagated into the IDMR decision making
  101.    processes. The IDMR protocols may need to adapt when a source's
  102.    traffic bypasses its local Mrouter(s) and is injected into Mrouters
  103.    at more distant points on the IP-level multicast distribution tree.
  104.    (This issue has been looked at in [7], focussing on building
  105.    forwarding trees within networks where the termination points are
  106.    small in number and sparsely distributed. VENUS introduces tougher
  107.    requirements by assuming that multicast group membership may be dense
  108.    across the region of interest.)
  109.  
  110.  
  111.  
  112.  
  113.  
  114. Armitage                     Informational                      [Page 2]
  115.  
  116. RFC 2191                         VENUS                    September 1997
  117.  
  118.  
  119.    This document will focus primarily on the internal problems of a
  120.    VENUS Domain, and leave the IDMR interactions for future analysis.
  121.  
  122. 2. What does it mean to "shortcut" ?
  123.  
  124.    Before going further it is worth considering both the definition of
  125.    the Cluster, and two possible definitions of "shortcut".
  126.  
  127. 2.1 What is a Cluster?
  128.  
  129.    In [2] a MARS Cluster is defined as the set of IP/ATM interfaces that
  130.    are willing to engage in direct, ATM level pt-mpt SVCs to perform IP
  131.    multicast packet forwarding. Each IP/ATM interface (a MARS Client)
  132.    must keep state information regarding the ATM addresses of each leaf
  133.    node (recipient) of each pt-mpt SVC it has open. In addition, each
  134.    MARS Client receives MARS_JOIN and MARS_LEAVE messages from the MARS
  135.    whenever there is a requirement that Clients around the Cluster need
  136.    to update their pt-mpt SVCs for a given IP multicast group.
  137.  
  138.    It is worth noting that no MARS Client has any concept of how big its
  139.    local cluster is - this knowledge is kept only by the MARS that a
  140.    given Client is registered with.
  141.  
  142.    Fundamentally the Cluster (and the MARS model as a whole) is a
  143.    response to the requirement that any multicast IP/ATM interface using
  144.    pt-mpt SVCs must, as group membership changes, add and drop leaf
  145.    nodes itself. This means that some mechanism, spanning all possible
  146.    group members within the scopes of these pt-mpt SVCs, is required to
  147.    collect group membership information and distribute it in a timely
  148.    fashion to those interfaces.  This is the MARS Cluster, with certain
  149.    scaling limits described in [4].
  150.  
  151. 2.2 LIS/Cluster boundary "shortcut"
  152.  
  153.    The currently popular definition of "shortcut" is based on the
  154.    existence of unicast LIS boundaries. It is tied to the notion that
  155.    LIS boundaries have physical routers, and cutting through a LIS
  156.    boundary means bypassing a router. Intelligently bypassing routers
  157.    that sit at the edges of LISs has been the goal of NHRP. Discovering
  158.    the ATM level identity of an IP endpoint in a different LIS allows a
  159.    direct SVC to be established, thus shortcutting the logical IP
  160.    topology (and very real routers) along the unicast path from source
  161.    to destination.
  162.  
  163.    For simplicity of early adoption RFC2022 recommends that a Cluster's
  164.    scope be made equivalent to that of a LIS. Under these circumstances
  165.    the "Classical IP" routing model places Mrouters at LIS/Cluster
  166.    boundaries, and multicast shortcutting must involve bypassing the
  167.  
  168.  
  169.  
  170. Armitage                     Informational                      [Page 3]
  171.  
  172. RFC 2191                         VENUS                    September 1997
  173.  
  174.  
  175.    same physical routing entities as unicast shortcutting. Each MARS
  176.    Cluster would be independent and contain only those IP/ATM interfaces
  177.    that had been assigned to the same LIS.
  178.  
  179.    As a consequence, a VENUS Domain covering the hosts in a number of
  180.    LIS/Clusters would have to co-ordinate each individual MARS from each
  181.    LIS/Cluster (to ensure group membership updates from around the VENUS
  182.    Domain were propagated correctly).
  183.  
  184. 2.3 Big Cluster, LIS boundary "shortcut"
  185.  
  186.    The MARS model's fundamental definition of a Cluster was deliberately
  187.    created to be independent of unicast terminology. Although not
  188.    currently well understood, it is possible to build a single MARS
  189.    Cluster that encompasses the members of multiple LISs. As expected,
  190.    inter-LIS unicast traffic would pass through (or bypass, if using
  191.    NHRP) routers on the LIS boundaries. Also as expected, each IP/ATM
  192.    interface, acting as a MARS Client, would forward their IP multicast
  193.    packets directly to intra-cluster group members. However, because the
  194.    direct intra-cluster SVCs would exist between hosts from the
  195.    different LISs making up the cluster, this could be considered a
  196.    "shortcut" of the unicast LIS boundaries.
  197.  
  198.    This approach immediately brings up the problem of how the IDMR
  199.    protocols will react. Mrouters only need to exist at the edges of
  200.    Clusters. In the case of a single Cluster spanning multiple LISs,
  201.    each LIS becomes hidden behind the Mrouter at the Cluster's edge.
  202.    This is arguably not a big problem if the Cluster is a stub on an
  203.    IDMR protocol's multicast distribution tree, and if there is only a
  204.    single Mrouter in or out of the Cluster. Problems arise when two or
  205.    more Mrouters are attached to the edges of the Cluster, and the
  206.    Cluster is used for transit multicast traffic. Each Mrouter's
  207.    interface is assigned a unicast identity (e.g. that of the unicast
  208.    router containing the Mrouter). IDMR protocols that filter packets
  209.    based on the correctness of the upstream source may be confused at
  210.    receiving IP multicast packets directly from another Mrouter in the
  211.    same cluster but notionally "belonging" to an LIS multiple unicast IP
  212.    hops away.
  213.  
  214.    Adjusting the packet filtering algorithms of Mrouters is something
  215.    that needs to be addressed by any multicast shortcut scheme. It has
  216.    been noted before and a solution proposed in [7]. For the sake of
  217.    argument this document will assume the problem solvable. (However, it
  218.    is important that any solution scales well under general topologies
  219.    and group membership densities.)
  220.  
  221.  
  222.  
  223.  
  224.  
  225.  
  226. Armitage                     Informational                      [Page 4]
  227.  
  228. RFC 2191                         VENUS                    September 1997
  229.  
  230.  
  231.    A multi-LIS MARS Cluster can be considered a simple VENUS Domain.
  232.    Since it is a single Cluster it can be scaled using the distributed
  233.    MARS solutions currently being developed within the IETF [5,6].
  234.  
  235. 3. So what must VENUS look like?
  236.  
  237.    A number of functions that occur in the MARS model are fundamental to
  238.    the problem of managing root controlled, pt-mpt SVCs. The initial
  239.    setup of the forwarding SVC by any one MARS Client requires a
  240.    query/response exchange with the Client's local MARS, establishing
  241.    who the current group members are (i.e. what leaf nodes should be on
  242.    the SVC). Following SVC establishment comes the management phase -
  243.    MARS Clients need to be kept informed of group membership changes
  244.    within the scopes of their SVCs, so that leaf nodes may be added or
  245.    dropped as appropriate.
  246.  
  247.    For intra-cluster multicasting the current MARS approach is our
  248.    solution for these two phases.
  249.  
  250.    For the rest of this document we will focus on what VENUS would look
  251.    like when a VENUS Domain spans multiple MARS Clusters. Under such
  252.    circumstances VENUS is a mechanism co-ordinating the MARS entities of
  253.    each participating cluster. Each MARS is kept up to date with
  254.    sufficient domain-wide information to support both phases of client
  255.    operation (SVC establishment and SVC management) when the SVC's
  256.    endpoints are outside the immediate scope of a client's local MARS.
  257.    Inside a VENUS Domain a MARS Client is supplied information on group
  258.    members from all participating clusters.
  259.  
  260.    The following subsections look at the problems associated with both
  261.    of these phases independently. To a first approximation the problems
  262.    identified are independent of the possible inter-MARS mechanisms. The
  263.    reader may assume the MARS in any cluster has some undefined
  264.    mechanism for communicating with the MARSs of clusters immediately
  265.    adjacent to its own cluster (i.e. connected by a single Mrouter hop).
  266.  
  267. 3.1 SVC establishment - answering a MARS_REQUEST.
  268.  
  269.    The SVC establishment phase contains a number of inter-related
  270.    problems.
  271.  
  272.    First, the target of a MARS_REQUEST (an IP multicast group) is an
  273.    abstract entity. Let us assume that VENUS does not require every MARS
  274.    to know the entire list of group members across the participating
  275.    clusters.  In this case each time a MARS_REQUEST is received by a
  276.    MARS from a local client, the MARS must construct a sequence of
  277.    MARS_MULTIs based on locally held information (on intra-cluster
  278.    members) and remotely solicited information.
  279.  
  280.  
  281.  
  282. Armitage                     Informational                      [Page 5]
  283.  
  284. RFC 2191                         VENUS                    September 1997
  285.  
  286.  
  287.    So how does it solicit this information? Unlike the unicast
  288.    situation, there is no definite, single direction to route a
  289.    MARS_REQUEST across the participating clusters. The only "right"
  290.    approach is to send the MARS_REQUEST to all clusters, since group
  291.    members may exist anywhere and everywhere. Let us allow one obvious
  292.    optimization - the MARS_REQUEST is propagated along the IP multicast
  293.    forwarding tree that has been established for the target group by
  294.    whatever IDMR protocol is running at the time.
  295.  
  296.    As noted in [4] there are various reasons why a Cluster's scope be
  297.    kept limited. Some of these (MARS Client or ATM NIC limitations)
  298.    imply that the VENUS discovery process not return more group members
  299.    in the MARS_MULTIs that the requesting MARS Client can handle. This
  300.    provides VENUS with an interesting problem of propagating out the
  301.    original MARS_REQUEST, but curtailing the MARS_REQUESTs propagation
  302.    when a sufficient number of group members have been identified.
  303.    Viewed from a different perspective, this means that the scope of
  304.    shortcut achievable by any given MARS Client may depend greatly on
  305.    the shape of the IP forwarding tree away from its location (and the
  306.    density of group members within clusters along the tree) at the time
  307.    the request was issued.
  308.  
  309.    How might we limit the number of group members returned to a given
  310.    MARS Client? Adding a limit TLV to the MARS_REQUEST itself is
  311.    trivial. At first glance it might appear that when the limit is being
  312.    reached we could summarize the next cluster along the tree by the ATM
  313.    address of the Mrouter into that cluster. The nett effect would be
  314.    that the MARS Client establishes a shortcut to many hosts that are
  315.    inside closer clusters, and passes its traffic to more distant
  316.    clusters through the distant Mrouter. However, this approach only
  317.    works passably well for a very simplistic multicast topology (e.g. a
  318.    linear concatenation of clusters).
  319.  
  320.    In a more general topology the IP multicast forwarding tree away from
  321.    the requesting MARS Client will branch a number of times, requiring
  322.    the MARS_REQUEST to be replicated along each branch. Ensuring that
  323.    the total number of returned group members does not exceed the
  324.    client's limit becomes rather more difficult to do efficiently.
  325.    (VENUS could simply halve the limit value each time it split a
  326.    MARS_REQUEST, but this might cause group member discovery on one
  327.    branch to end prematurely while all the group members along another
  328.    branch are discovered without reaching the subdivided limit.)
  329.  
  330.    Now consider this decision making process scattered across all the
  331.    clients in all participating clusters. Clients may have different
  332.    limits on how many group members they can handle - leading to
  333.    situations where different sources can shortcut to different
  334.    (sub)sets of the group members scattered across the participating
  335.  
  336.  
  337.  
  338. Armitage                     Informational                      [Page 6]
  339.  
  340. RFC 2191                         VENUS                    September 1997
  341.  
  342.  
  343.    clusters (because the IP multicast forwarding trees from senders in
  344.    different clusters may result in different discovery paths being
  345.    taken by their MARS_REQUESTs.)
  346.  
  347.    Finally, when the MARS_REQUEST passes a cluster where the target
  348.    group is MCS supported, VENUS must ensure the ATM address of the MCS
  349.    is collected rather than the addresses of the actual group members.
  350.    (To do otherwise would violate the remote cluster's intra-cluster
  351.    decision to use an MCS. The shortcut in this case must be content to
  352.    directly reach the remote cluster's MCS.)
  353.  
  354.    (A solution to part of this problem would be to ensure that a VENUS
  355.    Domain never has more MARS Clients throughout than the clients are
  356.    capable of adding as leaf nodes. This may or may not appeal to
  357.    people's desire for generality of a VENUS solution. It also would
  358.    appear to beg the question of why the problem of multiple-LIS
  359.    multicasting isn't solved simply by creating a single big MARS
  360.    Cluster.)
  361.  
  362. 3.2 SVC management - tracking group membership changes.
  363.  
  364.    Once a client's pt-mpt SVC is established, it must be kept up to
  365.    date.  The consequence of this is simple, and potentially
  366.    devastating: The MARS_JOINs and MARS_LEAVEs from every MARS Client in
  367.    every participating cluster must be propagated to every possible
  368.    sender in every participating cluster (this applies to groups that
  369.    are VC Mesh supported - groups that are MCS supported in some or all
  370.    participating clusters introduce complications described below).
  371.    Unfortunately, the consequential signaling load (as all the
  372.    participating MARSs start broadcasting their MARS_JOIN/LEAVE
  373.    activity) is not localized to clusters containing MARS Clients who
  374.    have established shortcut SVCs.  Since the IP multicast model is Any
  375.    to Multipoint, and you can never know where there may be source MARS
  376.    Clients, the JOINs and LEAVEs must be propagated everywhere, always,
  377.    just in case. (This is simply a larger scale version of sending JOINs
  378.    and LEAVEs to every cluster member over ClusterControlVC, and for
  379.    exactly the same reason.)
  380.  
  381.    The use of MCSs in some clusters instead of VC Meshes significantly
  382.    complicates the situation, as does the initial scoping of a client's
  383.    shortcut during the SVC establishment phase (described in the
  384.    preceding section).
  385.  
  386.    In Clusters where MCSs are supporting certain groups, MARS_JOINs or
  387.    MARS_LEAVEs are only propagated to MARS Clients when an MCS comes or
  388.    goes. However, it is not clear how to effectively accommodate the
  389.    current MARS_MIGRATE functionality (that allows a previously VC Mesh
  390.    based group to be shifted to an MCS within the scope of a single
  391.  
  392.  
  393.  
  394. Armitage                     Informational                      [Page 7]
  395.  
  396. RFC 2191                         VENUS                    September 1997
  397.  
  398.  
  399.    cluster). If an MCS starts up within a single Cluster, it is possible
  400.    to shift all the intra-cluster senders to the MCS using MARS_MIGRATE
  401.    as currently described in the MARS model. However, MARS Clients in
  402.    remote clusters that have shortcut SVCs into the local cluster also
  403.    need some signal to shift (otherwise they will continue to send their
  404.    packets directly to the group members in the local cluster).
  405.  
  406.    This is a non-trivial requirement, since we only want to force the
  407.    remote MARS Clients to drop some of their leaf nodes (the ones to
  408.    clients within the Cluster that now has an MCS), add the new MCS as a
  409.    leaf node, and leave all their other leaf nodes untouched (the cut-
  410.    through connections to other clusters). Simply broadcasting the
  411.    MARS_MIGRATE around all participating clusters would certainly not
  412.    work.  VENUS needs a new control message with semantics of "replaced
  413.    leaf nodes {x, y, z} with leaf node {a}, and leave the rest alone".
  414.    Such a message is easy to define, but harder to use.
  415.  
  416.    Another issue for SVC management is that the scope over which a MARS
  417.    Client needs to receive JOINs and LEAVEs needs to respect the
  418.    Client's limited capacity for handling leaf nodes on its SVC. If the
  419.    MARS Client initially issued a MARS_REQUEST and indicated it could
  420.    handle 1000 leaf nodes, it is not clear how to ensure that subsequent
  421.    joins of new members wont exceed that limit. Furthermore, if the SVC
  422.    establishment phase decided that the SVC would stop at a particular
  423.    Mrouter (due to leaf node limits being reached), the Client probably
  424.    should not be receiving direct MARS_JOIN or MARS_LEAVE messages
  425.    pertaining to activity in the cluster "behind" this Mrouter. (To do
  426.    otherwise could lead to multiple copies of the source client's
  427.    packets reaching group members inside the remote cluster - one
  428.    version through the Mrouter, and another on the direct SVC connection
  429.    that the source client would establish after receiving a subsequent,
  430.    global MARS_JOIN regarding a host inside the remote cluster.)
  431.  
  432.    Another scenario involves the density of group members along the IDMR
  433.    multicast tree increasing with time after the initial MARS_REQUEST is
  434.    answered. Subsequent JOINs from Cluster members may dictate that a
  435.    "closer" Mrouter be used to aggregate the source's outbound traffic
  436.    (so as not to exceed the source's leaf node limitations). How to
  437.    dynamically shift between terminating on hosts within a Cluster, and
  438.    terminating on a cluster's edge Mrouter, is an open question.
  439.  
  440.    To complicate matters further, this scoping of the VENUS domain-wide
  441.    propagation of MARS_JOINs and MARS_LEAVEs needs to be on a per-
  442.    source- cluster basis, at least. If MARS Clients within the same
  443.    cluster have different leaf node limits, the problem worsens. Under
  444.    such circumstances, one client may have been able to establish a
  445.    shortcut SVC directly into a remote cluster while a second client -
  446.    in the same source cluster - may have been forced to terminate its
  447.  
  448.  
  449.  
  450. Armitage                     Informational                      [Page 8]
  451.  
  452. RFC 2191                         VENUS                    September 1997
  453.  
  454.  
  455.    shortcut on the remote cluster's Mrouter. The first client obviously
  456.    needs to know about group membership changes in the remote cluster,
  457.    whilst the second client does not. Propagating these JOIN/LEAVE
  458.    messages on ClusterControlVC in the source cluster will not work -
  459.    the MARS for the source cluster will need to explicitly send copies
  460.    of the JOIN/LEAVE messages only to those MARS Clients whose prior SVC
  461.    establishment phase indicates they need them. Propagation of messages
  462.    to indicate a VC Mesh to MCS transition within clusters may also need
  463.    to take account of the leaf node limitations of MARS Clients. The
  464.    scaling characteristics of this problem are left to the readers
  465.    imagination.
  466.  
  467.    It was noted in the previous section that a VENUS domain could be
  468.    limited to ensure there are never more MARS Clients than any one
  469.    client's leaf node limit. This would certainly avoid the need to for
  470.    complicated MARS_JOIN/LEAVE propagation mechanisms. However, it begs
  471.    the question of how different the VENUS domain then becomes from a
  472.    single, large MARS Cluster.
  473.  
  474. 4. What is the value in bypassing Mrouters?
  475.  
  476.    This is a good question, since the whole aim of developing a shortcut
  477.    connection mechanism is predicated on the assumption that bypassing
  478.    IP level entities is always a "win". However, this is arguably not
  479.    true for multicast.
  480.  
  481.    The most important observation that should be made about shortcut
  482.    connection scenarios is that they increase the exposure of any given
  483.    IP/ATM interface to externally generated SVCs. If there are a
  484.    potential 1000 senders in a VENUS Domain, then you (as a group
  485.    member) open yourself up to a potential demand for 1000 instances of
  486.    your re-assembly engine (and 1000 distinct incoming SVCs, when you
  487.    get added as a leaf node to each sender's pt-mpt SVC, which your
  488.    local switch port must be able to support).
  489.  
  490.    It should be no surprise that the ATM level scaling limits applicable
  491.    to a single MARS Cluster [4] will also apply to a VENUS Domain. Again
  492.    we're up against the question of why you'd bypass an Mrouter. As
  493.    noted in [4] Mrouters perform a useful function of data path
  494.    aggregation - 100 senders in one cluster become 1 pt-mpt SVC out of
  495.    the Mrouter into the next cluster along the tree. They also hide MARS
  496.    signaling activity - individual group membership changes in one
  497.    cluster are hidden from IP/ATM interfaces in surrounding clusters.
  498.    The loss of these benefits must be factored into any network designed
  499.    to utilize multicast shortcut connections.
  500.  
  501.  
  502.  
  503.  
  504.  
  505.  
  506. Armitage                     Informational                      [Page 9]
  507.  
  508. RFC 2191                         VENUS                    September 1997
  509.  
  510.  
  511.    (For the sake of completeness, it must be noted that extremely poor
  512.    mismatches of IP and ATM topologies may make Mrouter bypass
  513.    attractive if it improves the use of the underlying ATM cloud. There
  514.    may also be benefits in removing the additional re-
  515.    assembly/segmentation latencies of having packets pass through an
  516.    Mrouter. However, a VENUS Domain ascertained to be small enough to
  517.    avoid the scaling limits in [4] might just as well be constructed as
  518.    a single large MARS Cluster. A large cluster also avoids a
  519.    topological mismatch between IP Mrouters and ATM switches.)
  520.  
  521. 5. Relationship to Distributed MARS protocols.
  522.  
  523.    The ION working group is looking closely at the development of
  524.    distributed MARS architectures. An outline of some issues is provided
  525.    in [5,6]. As noted earlier in this document the problem space looks
  526.    very similar that faced by our hypothetical VENUS Domain. For
  527.    example, in the load-sharing distributed MARS model:
  528.  
  529.       - The Cluster is partitioned into sub-clusters.
  530.  
  531.       - Each Active MARS is assigned a particular sub-cluster, and uses
  532.       its own sub-ClusterControlVC to propagate JOIN/LEAVE messages to
  533.       members of its sub-cluster.
  534.  
  535.       - The MARS_REQUEST from any sub-cluster member must return
  536.       information from all the sub-clusters, so as to ensure that all a
  537.       group's members across the cluster are identified.
  538.  
  539.       - Group membership changes in any one sub-cluster must be
  540.       immediately propagated to all the other sub-clusters.
  541.  
  542.    There is a clear analogy to be made between a distributed MARS
  543.    Cluster, and a VENUS Domain made up of multiple single-MARS Clusters.
  544.    The information that must be shared between sub-clusters in a
  545.    distributed MARS scenario is similar to the information that must be
  546.    shared between Clusters in a VENUS Domain.
  547.  
  548.    The distributed MARS problem is slightly simpler than that faced by
  549.    VENUS:
  550.  
  551.       - There are no Mrouters (IDMR nodes) within the scope of the
  552.       distributed Cluster.
  553.  
  554.       - In a distributed MARS Cluster an MCS supported group uses the
  555.       same MCS across all the sub-clusters (unlike the VENUS Domain,
  556.       where complete generality makes it necessary to cope with mixtures
  557.       of MCS and VC Mesh based Clusters).
  558.  
  559.  
  560.  
  561.  
  562. Armitage                     Informational                     [Page 10]
  563.  
  564. RFC 2191                         VENUS                    September 1997
  565.  
  566.  
  567. 6. Conclusion.
  568.  
  569.    This document has described a hypothetical multicast shortcut
  570.    connection scheme, dubbed "Very Extensive NonUnicast Service"
  571.    (VENUS).  The two phases of multicast support - SVC establishment,
  572.    and SVC management - are shown to be essential whether the scope is a
  573.    Cluster or a wider VENUS Domain. It has been shown that once the
  574.    potential scope of a pt-mpt SVC at establishment phase has been
  575.    expanded, the scope of the SVC management mechanism must similarly be
  576.    expanded. This means timely tracking and propagation of group
  577.    membership changes across the entire scope of a VENUS Domain.
  578.  
  579.    It has also been noted that there is little difference in result
  580.    between a VENUS Domain and a large MARS Cluster. Both suffer from the
  581.    same fundamental scaling limitations, and both can be arranged to
  582.    provide shortcut of unicast routing boundaries. However, a completely
  583.    general multi-cluster VENUS solution ends up being more complex. It
  584.    needs to deal with bypassed Mrouter boundaries, and dynamically
  585.    changing group membership densities along multicast distribution
  586.    trees established by the IDMR protocols in use.
  587.  
  588.    No solutions have been presented. This document's role is to provide
  589.    context for future developments.
  590.  
  591. Acknowledgment
  592.  
  593.    This document was prepared while the author was with the
  594.    Internetworking Research group at Bellcore.
  595.  
  596. Security Considerations
  597.  
  598.    This memo addresses specific scaling issues associated with the
  599.    extension of the MARS architecture beyond that described in RFC 2022.
  600.    It is an Informational memo, and does not mandate any additional
  601.    protocol behaviors beyond those described in RFC 2022.  As such, the
  602.    security implications are no greater or less than the implications
  603.    inherent in RFC 2022.  Should enhancements to security be required,
  604.    they would need to be added as an extension to the base architecture
  605.    in RFC 2022.
  606.  
  607.  
  608.  
  609.  
  610.  
  611.  
  612.  
  613.  
  614.  
  615.  
  616.  
  617.  
  618. Armitage                     Informational                     [Page 11]
  619.  
  620. RFC 2191                         VENUS                    September 1997
  621.  
  622.  
  623. Author's Address
  624.  
  625.    Grenville Armitage
  626.    Bell Labs, Lucent Technologies.
  627.    101 Crawfords Corner Rd,
  628.    Holmdel, NJ, 07733
  629.    USA
  630.  
  631.    EMail: gja@dnrc.bell-labs.com
  632.  
  633.  
  634. References
  635.  
  636.    [1] Laubach, M., "Classical IP and ARP over ATM", RFC 1577, Hewlett-
  637.    Packard Laboratories, December 1993.
  638.  
  639.    [2] Armitage, G., "Support for Multicast over UNI 3.0/3.1 based ATM
  640.    Networks.", Bellcore, RFC 2022, November 1996.
  641.  
  642.    [3] Luciani, J., et al, "NBMA Next Hop Resolution Protocol (NHRP)",
  643.    Work in Progress, February 1997.
  644.  
  645.    [4] Armitage, G., "Issues affecting MARS Cluster Size", Bellcore, RFC
  646.    2121, March 1997.
  647.  
  648.    [5] Armitage, G., "Redundant MARS architectures and SCSP", Bellcore,
  649.    Work in Progress, November 1996.
  650.  
  651.    [6] Luciani, J., G. Armitage, J. Jalpern, "Server Cache
  652.    Synchronization Protocol (SCSP) - NBMA", Work in Progress, March 1997.
  653.  
  654.    [7] Rekhter, Y., D. Farinacci, " Support for Sparse Mode PIM over
  655.    ATM", Cisco Systems, Work in Progress, April 1996.
  656.  
  657.  
  658.  
  659.  
  660.  
  661.  
  662.  
  663.  
  664.  
  665.  
  666.  
  667.  
  668.  
  669.  
  670.  
  671.  
  672.  
  673.  
  674. Armitage                     Informational                     [Page 12]
  675.  
  676.