home *** CD-ROM | disk | FTP | other *** search
/ Internet Info 1997 December / Internet_Info_CD-ROM_Walnut_Creek_December_1997.iso / rfc / rfc2121 < prev    next >
Text File  |  1997-03-28  |  27KB  |  676 lines

  1.  
  2.  
  3.  
  4.  
  5.  
  6.  
  7. Network Working Group                                      G. Armitage
  8. Request for Comments: 2121                                    Bellcore
  9. Category: Informational                                     March 1997
  10.  
  11.  
  12.                    Issues affecting MARS Cluster Size
  13.  
  14. Status of this Memo
  15.  
  16.    This memo provides information for the Internet community.  This memo
  17.    does not specify an Internet standard of any kind.  Distribution of
  18.    this memo is unlimited.
  19.  
  20. Abstract
  21.  
  22.    IP multicast over ATM currently uses the MARS model [1] to manage the
  23.    use of ATM pt-mpt SVCs for IP multicast packet forwarding. The scope
  24.    of any given MARS services is the MARS Cluster - typically the same
  25.    as an IPv4 Logical IP Subnet (LIS). Current IP/ATM networks are
  26.    usually architected with unicast routing and forwarding issues
  27.    dictating the sizes of individual LISes. However, as IP multicast is
  28.    deployed as a service, the size of a LIS will only be as big as a
  29.    MARS Cluster can be. This document provides a qualitative look at the
  30.    issues constraining a MARS Cluster's size, including the impact of VC
  31.    limits in switches and NICs, geographical distribution of cluster
  32.    members, and the use of VC Mesh or MCS modes to support multicast
  33.    groups.
  34.  
  35. 1. Introduction
  36.  
  37.    A MARS Cluster is the set of IP/ATM interfaces that are willing to
  38.    engage in direct, ATM level pt-mpt SVCs to perform IP multicast
  39.    packet forwarding [1]. Each IP/ATM interface (a MARS Client) must
  40.    keep state information regarding the ATM addresses of each leaf node
  41.    (recipient) of each  pt-mpt SVC it has open. In  addition, each MARS
  42.    Client receives MARS_JOIN and MARS_LEAVE messages from the MARS
  43.    whenever there is a requirement that Clients around the Cluster need
  44.    to update their pt-mpt SVCs for a given IP multicast group.
  45.  
  46.    The definition of Cluster 'size' can mean two things - the number of
  47.    MARS Clients using a given MARS, and the geographic distribution of
  48.    MARS Clients. The number of MARS Clients in a Cluster impacts on the
  49.    amount of state information any given client may need to store while
  50.    managing  outgoing  pt- mpt SVCs. It also impacts on the average rate
  51.    of JOIN/LEAVE traffic that is propagated by the MARS on
  52.    ClusterControlVC, and the number of pt-mpt VCs that may need
  53.    modification each time a MARS_JOIN or MARS_LEAVE appears on
  54.    ClusterControlVC.
  55.  
  56.  
  57.  
  58. Armitage                     Informational                      [Page 1]
  59.  
  60. RFC 2121           Issues affecting MARS Cluster Size         March 1997
  61.  
  62.  
  63.    The geographic distribution of clients affects the latency between a
  64.    client issuing a MARS_JOIN, and it finally being added onto the pt-
  65.    mpt VCs of the other MARS Clients transmitting to the specified
  66.    multicast group. (This latency is made up of both the time to
  67.    propagate the MARS_JOIN, and the delay in the underlying ATM cloud's
  68.    reaction to the subsequent ADD_PARTY messages.)
  69.  
  70.    When architecting an IP/ATM network it is important to understand the
  71.    worst case scaling limits applicable to your Clusters. This document
  72.    provides a primarily qualitative look at the design choices that
  73.    impose the most dramatic constraints on Cluster size. Since the focus
  74.    is on worst-case scenarios, most of the analysis will assume
  75.    multicast groups that are VC Mesh based and have all cluster members
  76.    as sources and receivers. Engineering using the worst-case boundary
  77.    conditions, then applying optimisations such as Multicast Servers
  78.    (MCS), provides the Cluster with a margin of safety.  It is hoped
  79.    that more detailed quantitative analysis of Cluster sizing limits
  80.    will be prompted by this document.
  81.  
  82.    Section 2 comments on the VC state requirements of the MARS model,
  83.    while Sections 3 and 4 identify the group change processing load and
  84.    latency characteristics of a cluster as a function of its size.
  85.    Section 5 looks at how Multicast Routers (both conventional and
  86.    combination router/switch architectures) increase the scale of a
  87.    multicast capable IP/ATM network. Finally, Section 6 discusses how
  88.    the use of Multicast Servers (MCS) might impact on the worst case
  89.    Cluster size limits.
  90.  
  91.  
  92. 2. VC state limitations.
  93.  
  94.    Two characteristics of ATM NICs and switches will limit the number of
  95.    members a Cluster may contain. They are:
  96.  
  97.       The maximum number of VCs that can be originated from, or
  98.       terminate on, a port (VCmax).
  99.  
  100.       The maximum number of leaf nodes supportable by a root node
  101.       (LEAFmax).
  102.  
  103.    We'll assume that the MARS node has similar VCmax and LEAFmax values
  104.    as Cluster members.  VCmax affects the Cluster size because of the
  105.    following:
  106.  
  107.       The MARS terminates a pt-pt control VC from each cluster member,
  108.       and originates a VC for ClusterControlVC and ServerControlVC.
  109.  
  110.  
  111.  
  112.  
  113.  
  114. Armitage                     Informational                      [Page 2]
  115.  
  116. RFC 2121           Issues affecting MARS Cluster Size         March 1997
  117.  
  118.  
  119.       When a multicast group is VC Mesh based, a group member terminates
  120.       a VC from every sender to the group, per group.
  121.  
  122.       When a multicast group is MCS based, the MCS terminates a VC from
  123.       every sender to the group.
  124.  
  125.    LEAFmax affects the Cluster size because of the following:
  126.  
  127.       ClusterControlVC from the MARS. It has a leaf node per cluster
  128.       member (MARS Client).
  129.  
  130.       Packet forwarding SVCs out of each MARS Client for each IP
  131.       multicast group being sent to. It has a leaf node for each group
  132.       member when a group is VC Mesh based.
  133.  
  134.       Packet forwarding SVCs out of each MCS for each IP multicast group
  135.       being sent to. It has a leaf node for each group member when a
  136.       group is MCS based.
  137.  
  138.    If we have N cluster members, and M multicast groups active (using VC
  139.    Mesh mode, and densely populated - all receivers are senders), the
  140.    following observations may be made:
  141.  
  142.       ClusterControlVC has N leaf nodes, so
  143.             N <= LEAFmax.
  144.  
  145.       The MARS terminates a pt-pt VC from each cluster member, and
  146.       originates ClusterControlVC and ServerControlVC, so
  147.             (N+2) <= VCmax.
  148.  
  149.       Each Cluster Member sources 1 VC per group, terminates (N-1) VC
  150.       per group, originates a pt-pt VC to the MARS, and terminates 1 VC
  151.       as a leaf on ClusterControlVC, so
  152.             (M*N) + 2 <= VCmax.
  153.  
  154.       The VC sourced by each Cluster member per group goes to all other
  155.       cluster members, so
  156.             (N-1) <= LEAFmax.
  157.  
  158.  
  159.  
  160.  
  161.  
  162.  
  163.  
  164.  
  165.  
  166.  
  167.  
  168.  
  169.  
  170. Armitage                     Informational                      [Page 3]
  171.  
  172. RFC 2121           Issues affecting MARS Cluster Size         March 1997
  173.  
  174.  
  175.    Since all the above conditions must be simultaneously true, we can
  176.    see that the most constraining requirement is either:
  177.  
  178.       (M*N) + 2 <= VCmax.
  179.  
  180.    or
  181.  
  182.       N <= LEAFmax.
  183.  
  184.    The limit involving VCmax is fundamentally controlled by the VC
  185.    consumption of group members using a VC Mesh for data forwarding,
  186.    rather than the termination of pt-pt control VCs on the MARS. (It is
  187.    in practice going to be very dependent on the multicast group
  188.    membership distributions within the cluster.)
  189.  
  190.    The LEAFmax limit comes from ClusterControlVC, and is independent of
  191.    the density of group members (or the ratios of senders to receivers)
  192.    for active multicast groups within the cluster.
  193.  
  194.    Under UNI 3.0/3.1 the most obvious limit on LEAFmax is 2^15 (the leaf
  195.    node ID is 15 bits wide).  However, the signaling driver software for
  196.    most ATM NICs may impose a limit much lower than this - a function of
  197.    how much per-leaf node state information they need to store (and are
  198.    capable of storing) for pt-mpt SVCs.
  199.  
  200.    VCmax is constrained by the ATM NIC hardware (for available
  201.    segmentation or reassembly instances), or by the VC capacity of the
  202.    switch port that the NIC is attached to.  VCmax will be the smaller
  203.    of the two.
  204.  
  205.    A MARS Client may impose its own state storage limitations, such that
  206.    the combined memory consumption of a MARS Client and the ATM NIC's
  207.    driver in a given host limits both LEAFmax and VCmax to values lower
  208.    than the ATM NIC alone might have been able to support.
  209.  
  210.    It may be possible to work around LEAFmax limits by distributing the
  211.    leaf nodes across multiple pt-mpt SVCs operating in parallel.
  212.    However, such an approach requires further study, and doesn't solve
  213.    the VCmax limitation associated with a node terminating too many VCs.
  214.  
  215.    A related observation can also be made that the number of MARS
  216.    Clients in a Cluster may be limited by the memory constraints of the
  217.    MARS itself. It is required to keep state on all the groups that
  218.    every one of its MARS Clients have joined. For a given memory limit,
  219.    the maximum number of MARS Clients must drop if the average number of
  220.    groups joined per Client rises. Depending on the level of group
  221.    memberships, this limitation may be more severe than LEAFmax.
  222.  
  223.  
  224.  
  225.  
  226. Armitage                     Informational                      [Page 4]
  227.  
  228. RFC 2121           Issues affecting MARS Cluster Size         March 1997
  229.  
  230.  
  231. 3. Signaling load.
  232.  
  233.    In any given cluster there will be an 'ambient' level of
  234.    MARS_JOIN/LEAVE activity. The dynamic characteristics of this
  235.    activity will depend on the types of multicast applications running
  236.    within the cluster. For a constant relative distribution of multicast
  237.    applications we can assume that, as the number of MARS Clients in a
  238.    given cluster rises, so does the ambient level of MARS_JOIN/LEAVE
  239.    activity. This increases the average frequency with which the MARS
  240.    processes and propagates MARS_JOIN/LEAVE messages.
  241.  
  242.    The existence of MARS_JOIN/LEAVE traffic also has a consequential
  243.    impact on signaling activity at the ATM level (across the UNI and
  244.    {P}NNI boundaries). For groups that are VC Mesh supported, each
  245.    MARS_JOIN or MARS_LEAVE propagated on ClusterControlVC will result in
  246.    an ADD_PARTY or DROP_PARTY message sent across the UNIs of all MARS
  247.    Clients that are transmitting to a given group. As a cluster's
  248.    membership increases, so does the average number of MARS Clients that
  249.    trigger ATM signaling activity in response to MARS_JOIN/LEAVEs.
  250.  
  251.    The size of a cluster needs to be chosen to provide some level of
  252.    containment to this ambient level of MARS and UNI/NNI signaling.
  253.  
  254.    Some refinements to the MARS Client behaviour may also be explored to
  255.    smooth out UNI signaling transients. MARS Clients are currently
  256.    required to initiate revalidation of group memberships only when the
  257.    Client next sends a packet to an invalidated group SVC. A Client
  258.    could apply a similar algorithm to decide when it should issue
  259.    ADD_PARTYs. For example, after seeing a MARS_JOIN, wait until it
  260.    actually has a packet to send, send the packet, then initiate the
  261.    ADD_PARTY. As a result actively transmitting Clients would update
  262.    their SVCs sooner than intermittently transmitting Clients.
  263.  
  264.  
  265. 4. Group change latencies
  266.  
  267.    The group change latency can be defined as the time it takes for all
  268.    the senders to a group to have correctly updated their forwarding
  269.    SVCs after a MARS_JOIN or MARS_LEAVE is received from the MARS. This
  270.    is affected by both the number of Cluster members and the
  271.    geographical distribution of Cluster members. (Groups that are MCS
  272.    based create the lowest impact when new members join or leave, since
  273.    only the MCS needs to update its forwarding SVC.) Under some
  274.    circumstances, especially modelling or simulation environments, group
  275.    change latencies within a cluster may be an important characteristic
  276.    to control.
  277.  
  278.  
  279.  
  280.  
  281.  
  282. Armitage                     Informational                      [Page 5]
  283.  
  284. RFC 2121           Issues affecting MARS Cluster Size         March 1997
  285.  
  286.  
  287.    As noted in the previous section, the ADD_PARTY/DROP_PARTY signaling
  288.    load created by membership changes in VC Mesh based groups goes up as
  289.    the number of cluster members rises (assuming worst case scenario of
  290.    each cluster member being a sender to the group). As the UNI load
  291.    rises, the ATM network itself may start delivering slower processing
  292.    of the requested events.
  293.  
  294.    Wide geographic distribution of Cluster members also delays the
  295.    propagation of MARS_JOIN/LEAVE and ATM UNI/NNI messages. The further
  296.    apart various members are, the longer it takes for them to receive
  297.    MARS_JOIN/LEAVE traffic on ClusterControlVC, and the longer it takes
  298.    for the ATM network to react to ADD_PARTY and DROP_PARTY requests. If
  299.    the long distance paths are populated by many ATM switches,
  300.    propagation delays due to per-switch processing will add
  301.    substantially to delays due to the speed of light.
  302.  
  303.    (Unfortunately, mechanisms for smoothing out the transient ATM
  304.    signaling load described in section 3 have a consequence of
  305.    increasing the group change latency, since the goal is for some of
  306.    the senders to deliberately delay updating their forwarding SVCs.
  307.    This is an area where the system architect needs to make a
  308.    situation-specific trade-off.)
  309.  
  310.    It is not clear what affect the internal processing of the MARS
  311.    itself has on group change latency, and how this might be impacted by
  312.    cluster size.  A component of the MARS processing latency will depend
  313.    on the specific database implementation and search algorithms as much
  314.    as on the number of group members for the group being modified at any
  315.    instant. Since the maximum number of group members for a given group
  316.    is equal to the number of cluster members, there will be an indirect
  317.    (even if small) relationship between worst case MARS processing
  318.    latencies and cluster size.
  319.  
  320.  
  321. 5. Large IP/ATM networks using Mrouters
  322.  
  323.    Building a large scale, multicast capable IP over ATM network is a
  324.    tradeoff between Cluster sizes and numbers of Mrouters. For a given
  325.    number of hosts, the number of clusters goes up as individual
  326.    clusters shrink. Since Mrouters are the topological intersections
  327.    between clusters, the number of Mrouters rises as the size of
  328.    individual clusters shrinks. (The actual number of Mrouters depends
  329.    largely on the logical IP topology you choose to implement, since a
  330.    single physical Mrouter may interconnect more than two Clusters at
  331.    once.) It is a local deployment question as to what the optimal mix
  332.    of Clusters and Mrouters will be.
  333.  
  334.  
  335.  
  336.  
  337.  
  338. Armitage                     Informational                      [Page 6]
  339.  
  340. RFC 2121           Issues affecting MARS Cluster Size         March 1997
  341.  
  342.  
  343.    Currently two broad classes of Mrouters may be identified:
  344.  
  345.       Those that originate unique VCs into target Clusters, and
  346.       forward/interleave data at the IP packet level (the Conventional
  347.       Mrouter).
  348.  
  349.       Those that originate unique VCs into target Clusters, but create
  350.       internal, cell level 'cut through' paths between VCs from
  351.       different Clusters (e.g. the Cell Switch Router).
  352.  
  353.    How these Mrouters establish and manage the associations of VCs to IP
  354.    traffic flows is beyond the scope of this document.  However, it is
  355.    worth looking briefly at their impact on VC consumption and ATM
  356.    signaling load.
  357.  
  358. 5.1 Impact of the Conventional Mrouter
  359.  
  360.    A conventional Mrouter acts as an aggregation point for both
  361.    signaling and data plane loads. It hides host specific group
  362.    membership changes in one cluster from senders within other clusters,
  363.    and protects group members (receivers) in one cluster from having to
  364.    be leaf nodes on SVCs from senders in other Clusters.
  365.  
  366.    When acting as an ingress point into a cluster, a conventional
  367.    Mrouter establishes a single forwarding SVC for IP packets.  This
  368.    single SVC carries data from other clusters interleaved at the IP
  369.    packet level. Only this single SVC needs to be modified in response
  370.    to group memberships changes within the target cluster.  As a
  371.    consequence, there is no need for sources in other clusters to be
  372.    aware of, or react to, MARS_JOIN/LEAVE traffic in the target cluster.
  373.    (The consequential UNI signaling load identified in section 3 is also
  374.    localized within the target Cluster.)
  375.  
  376.    MARS Clients within the target cluster also benefit from this data
  377.    path aggregation because they terminate only one SVC from the Mrouter
  378.    (per group), rather than multiple SVCs originating from actual
  379.    senders in other Clusters.
  380.  
  381.    Conventional Mrouters help control the limiting factors described in
  382.    sections 2, 3, and 4.  A hypothetical 10000 node Cluster could be
  383.    broken into two 5000 node Clusters, or four 2500 node Clusters, etc,
  384.    to reduce VC consumption. Or you might have 200 nodes of the overall
  385.    10000 that are known to join and leave groups rapidly, whilst the
  386.    other 9800 are fairly steady - so you deploy clusters of 200, 2500,
  387.    2500, 2500, 2300 hosts respectively.
  388.  
  389.  
  390.  
  391.  
  392.  
  393.  
  394. Armitage                     Informational                      [Page 7]
  395.  
  396. RFC 2121           Issues affecting MARS Cluster Size         March 1997
  397.  
  398.  
  399. 5.2. Impact of the Cell Switch Router (CSR).
  400.  
  401.    Another class of Mrouter, the Cell Switch Router (CSR) attempts to
  402.    utilize IP level flow information to dynamically manage the switching
  403.    of data through the device below the IP level.  Once the CSR has
  404.    identified a flow of IP traffic, and associated it with an inbound
  405.    and outbound SVC, it begins to function as an ATM cell level device
  406.    rather than a packet level device.
  407.  
  408.    Even when operating in this mode the CSR isolates attached Clusters
  409.    from each other's MARS_JOIN/LEAVE activities, in the same manner as a
  410.    conventional Mrouter. This occurs because the CSR manages its
  411.    forwarding SVCs just like a normal MARS Client - responding to
  412.    MARS_JOIN/LEAVE messages within the target cluster by updating the
  413.    pt-mpt trees rooted on its own ATM ports.
  414.  
  415.    However, since AAL5 AAL_SDUs cannot be interleaved at the cell level
  416.    on a single SVC, a CSR cannot simultaneously perform cell level cut-
  417.    through and aggregate the IP packet flows from multiple senders onto
  418.    a single SVC into a target Cluster. As a result, the CSR must
  419.    construct a separate forwarding SVC into a target cluster for each
  420.    SVC it is a leaf of in a source Cluster (to to ensure that cells from
  421.    individual sources are not interleaved prior to reaching the re-
  422.    assembly engines of the group members in the target cluster).
  423.  
  424.    Interestingly, the UNI signaling load offered within the target
  425.    Cluster by the CSR is potentially greater than that of a conventional
  426.    Mrouter. If there are N senders in the source Cluster, the CSR will
  427.    have built N identical pt-mpt SVCs out to the group members within
  428.    the target Cluster. If a new MARS_JOIN is issued within the target
  429.    Cluster, the CSR must issue N ADD_PARTYs to update the N SVCs into
  430.    the target Cluster. (Under similar circumstances a conventional
  431.    Mrouter would have issued only one ADD_PARTY for its single SVC into
  432.    the target Cluster.)
  433.  
  434.    Thus, without the ability to provide internal cut-through forwarding
  435.    with AAL_SDU boundaries intact, the CSR only provides for the
  436.    isolation of MARS_JOIN/LEAVE traffic within clusters. It cannot
  437.    provide the data path aggregation of a conventional Mrouter.
  438.  
  439.  
  440.  
  441.  
  442.  
  443.  
  444.  
  445.  
  446.  
  447.  
  448.  
  449.  
  450. Armitage                     Informational                      [Page 8]
  451.  
  452. RFC 2121           Issues affecting MARS Cluster Size         March 1997
  453.  
  454.  
  455. 6. The impact of Multicast Servers (MCSs)
  456.  
  457.    Since the focus of this document is on worst-case scenarios, most of
  458.    the analysis has assumed multicast groups that are VC Mesh based and
  459.    have all cluster members as sources and receivers. The impact of
  460.    using an MCS to support a multicast group can be dramatic in the
  461.    context of the group's resource consumption, but less so in the
  462.    over-all context of cluster size limits.
  463.  
  464.    The intra-cluster, per group impact of an MCS is somewhat analogous
  465.    to the inter-cluster impact of a conventional Mrouter. The MCS
  466.    aggregates the data flows (only 1 SVC terminates on each group
  467.    member, independent of the number of senders), and isolates
  468.    MARS_JOIN/LEAVE traffic (which is shifted to ServerControlVC rather
  469.    than ClusterControlVC). The resulting UNI signaling traffic and load
  470.    is reduced too, as only the forwarding SVC out of the MCS needs to be
  471.    modified for every membership change in the MCS supported group.
  472.  
  473.    Deploying a mixture of MCS and VC Mesh based groups will certainly
  474.    improve resource utilization. However, the actual extent of the
  475.    improvements (and consequently how large the cluster can be made)
  476.    will depend greatly on the dynamics of your typical applications and
  477.    which characteristics from sections 2, 3, and 4 are your primary
  478.    limitations.
  479.  
  480.    For example, if VCmax or LEAFmax (section 2) are primary limitations,
  481.    one must keep in mind that each MCS itself suffers the same NIC
  482.    limits as the MARS and MARS Clients. Even though using an MCS
  483.    dramatically reduces the number of VCs per MARS Client per group,
  484.    each MCS still needs to terminate 1 SVC per sender - potentially up
  485.    to 1 SVC from each Cluster member.  (This may become 1 SVC per member
  486.    per group if the MCS supports multiple groups simultaneously.)
  487.  
  488.    Assume we have a Cluster where every group is MCS based, each MCS
  489.    supports only one group, and both VCmax and LEAFmax apply equally to
  490.    MCS nodes as MARS and MARS Clients nodes.  If we have N cluster
  491.    members, M groups, and all receivers are senders for a given MCS
  492.    supported group, the following observations may be made:
  493.  
  494.       Each MCS forwarding SVC has N leaf nodes, so
  495.             N <= LEAFmax.
  496.  
  497.       Each MCS terminates an SVC from N senders, originates 1 SVC
  498.       forwarding path, originates a pt-pt control SVC to the MARS, and
  499.       terminates 1 SVC as a leaf on ServerControlVC, so
  500.             N + 3 <= VCmax.
  501.  
  502.  
  503.  
  504.  
  505.  
  506. Armitage                     Informational                      [Page 9]
  507.  
  508. RFC 2121           Issues affecting MARS Cluster Size         March 1997
  509.  
  510.  
  511.       MARS ClusterControlVC has N leaf nodes, so
  512.             N <= LEAFmax.
  513.  
  514.       MARS ServerControlVC has M leaf nodes, so
  515.             M <= LEAFmax.
  516.  
  517.       The MARS terminates a pt-pt VC from each cluster member, a pt-pt
  518.       VC from each MCS, originates ClusterControlVC, and originates
  519.       ServerControlVC, so
  520.             N + M + 2 <= VCmax.
  521.  
  522.       Each Cluster Member sources 1 VC per group, terminates 1 VC per
  523.       group, originates a pt-pt VC to the MARS, and terminates 1 VC as a
  524.       leaf on ClusterControlVC, so
  525.             2*M + 2 <= VCmax.
  526.  
  527.    Since all the above conditions must be simultaneously true, we can
  528.    see that the most constraining requirements are:
  529.  
  530.       N + M + 2 <= VCmax (if M <= N)
  531.  
  532.       2*M + 2 <= VCmax (if M >= N)
  533.    or
  534.       N <= LEAFmax.
  535.  
  536.    (Assuming that in general M+2 > 3, so the VCmax constraint at each
  537.    MCS is not a limiting factor.)
  538.  
  539.    We can get a feel for the relative impacts of VC Mesh groups vs MCS
  540.    based groups by considering a cluster where M1 represents the number
  541.    of VC Mesh based groups, and M2 represents the number of MCS based
  542.    groups. Again we assume worst case group density (all N cluster
  543.    members are group members, all receivers are also senders).
  544.  
  545.    As noted in section 2, the VCmax constraint in VC Mesh mode comes
  546.    from each MARS Client, and is:
  547.  
  548.       N*M1 <= VCmax - 2
  549.  
  550.    For the MCS case we have two scenarios, M2 <= N and M2 >= N.
  551.  
  552.    If M2 <= N we can see the VC consumption by VC Mesh based groups will
  553.    become the applicable constraint on cluster size N when:
  554.  
  555.       N + M2 <= N*M1
  556.    i.e.
  557.       M1 >= 1 + (M2/N)
  558.  
  559.  
  560.  
  561.  
  562. Armitage                     Informational                     [Page 10]
  563.  
  564. RFC 2121           Issues affecting MARS Cluster Size         March 1997
  565.  
  566.  
  567.    Thus, if there is more than 1 VC Mesh based group, and less MCS based
  568.    groups than cluster members (M2 < N), the constraint on cluster size
  569.    is dictated by the VC Mesh characteristics: N*M1 <= VCmax - 2. (If M2
  570.    == N, then there may be 2 VC Mesh based groups before the VC Mesh
  571.    characteristics are the dictating factor.)
  572.  
  573.    Now, if M2 > N (more MCS based groups, and hence MCSes, than cluster
  574.    members) the calculation is more complex since in this case VCmax at
  575.    the MARS Client is the limiting parameter for both VC Mesh and MCS
  576.    cases. The limit becomes:
  577.  
  578.       N*M1 + 2*M2 <= VCmax - 2
  579.  
  580.    However, on face value this is an odd situation anyway, since it
  581.    implies more MCS entities than hosts or router interfaces into the
  582.    cluster (given the assumption of one group per MCS).
  583.  
  584.    The impact of MCS entities that simultaneously support multiple
  585.    groups is left for future study.
  586.  
  587.  
  588. 7. Open Issues
  589.  
  590.    There is a wide range of qualitative analysis that can be extracted
  591.    from typical MARS deployment scenarios. This document does not
  592.    attempt to develop any numerical models for VC consumptions, end to
  593.    end latencies, etc.
  594.  
  595.  
  596. 8. Conclusion
  597.  
  598.    This document has provided a high level, qualitative overview of the
  599.    parameters affecting the size of MARS Clusters.  Limitations on the
  600.    number of leaf nodes a pt-mpt SVC may support, sizes of the MARS
  601.    database, propagation delays of MARS and UNI messages, and the
  602.    frequency of MARS and UNI control messages are all identified as
  603.    issues that will constrain Clusters.  Conventional Mrouters are
  604.    identified as useful aggregators of IP multicast traffic and
  605.    signaling information.  Cell Switch Routers are noted to offer only
  606.    some of the aggregation attributes of conventional Mrouters.  Large
  607.    scale IP multicasting over ATM requires a combination of Mrouters and
  608.    appropriately sized MARS Clusters. Finally, it has been shown that in
  609.    a simple cluster where there are less MCS based groups than cluster
  610.    members, two or more VC Mesh based groups are sufficient to render
  611.    the use of Multicast Servers irrelevant to the worst case cluster
  612.    size limit.
  613.  
  614.  
  615.  
  616.  
  617.  
  618. Armitage                     Informational                     [Page 11]
  619.  
  620. RFC 2121           Issues affecting MARS Cluster Size         March 1997
  621.  
  622.  
  623. Security Considerations
  624.  
  625.    Security issues are not discussed in this memo.
  626.  
  627. Acknowledgments
  628.  
  629.    Thanks must go to Rajesh Talpade (Georgia Tech) for specific input on
  630.    aspects of the VC Mesh vs MCS tradeoffs, and Joel Halpern (Newbridge)
  631.    for general input on the document's focus.
  632.  
  633.  
  634. Author's Address
  635.  
  636.    Grenville Armitage
  637.    Bellcore, 445 South Street
  638.    Morristown, NJ, 07960
  639.    USA
  640.  
  641.    EMail: gja@thumper.bellcore.com
  642.    Phone +1 201 829 2635
  643.  
  644.  
  645. References
  646.  
  647.    [1] Armitage, G., "Support for Multicast over UNI 3.0/3.1 based ATM
  648.    Networks.", Bellcore, RFC 2022, November 1996.
  649.  
  650.  
  651.  
  652.  
  653.  
  654.  
  655.  
  656.  
  657.  
  658.  
  659.  
  660.  
  661.  
  662.  
  663.  
  664.  
  665.  
  666.  
  667.  
  668.  
  669.  
  670.  
  671.  
  672.  
  673.  
  674. Armitage                     Informational                     [Page 12]
  675.  
  676.