home *** CD-ROM | disk | FTP | other *** search
/ Internet Info 1997 December / Internet_Info_CD-ROM_Walnut_Creek_December_1997.iso / ietf / mboned / mboned-minutes-97apr.txt < prev    next >
Text File  |  1997-05-29  |  19KB  |  518 lines

  1. Editor's Note:  These minutes have not been edited.
  2.  
  3.  
  4. MBONED WG Meeting
  5. April 7, 1997
  6. Memphis, TN
  7.  
  8. David Meyer/University of Oregon, Chair 
  9. Reported by Matt Crawford and David Meyer
  10.  
  11. --------------------------------------------------------------------
  12. Agenda
  13. --------------------------------------------------------------------
  14. I.    Monday, April 7 1300-1500 
  15.  
  16.     (i).    Introduction, Agenda Bashing and Status
  17.     (ii).    Status of Pruning/Pruning Draft
  18.     (iii).    Administratively Scoped Multicast
  19.     (iv).    Using TTLs with Admin Scoped Addresses
  20.     (v).    Using DHCP to allocate multicast addresses
  21.     (vi).    Issues for an Inter-domain Multicast Routing Protocol
  22.     (vii).    Current IDMR Inter-domain Routing Proposals
  23.  
  24. II.    Monday, April 7 1930-2200 
  25.  
  26.     (viii).    M-BGP Proposal Overview
  27.     (ix).    Multicast Diagnostic Tools
  28.     (x).    Intro to Multicast Routing
  29.     (xi).    Rate Limiting Draft
  30.  
  31.  
  32. --------------------------------------------------------------------
  33. (i). Introduction, Agenda Bashing, and Status
  34. --------------------------------------------------------------------
  35.  
  36.     David Meyer convened the meeting, giving a status report
  37.     of progress made by the MBONED WG.
  38.  
  39.     Meyer noted that there was a MBONED web page at:
  40.  
  41.         http://www.antc.uoregon.edu/MBONED/
  42.  
  43.     and a mail list that one can subscribe to:
  44.  
  45.         majordomo@ns.uoregon.edu.edu
  46.  
  47.         subscribe mboned
  48.  
  49.     He then asked for additions and changes to the agenda.
  50.     
  51.  
  52.  
  53. --------------------------------------------------------------------
  54. (ii).    Progress on the Pruning Draft
  55. --------------------------------------------------------------------
  56.  
  57.     John Hawkinson gave an update on the state of the pruning
  58.     draft. The purpose was to be a BCP-to-be; things got
  59.     politically complicated. IESG wrote a lot of comments but
  60.     they never got to the author.  That was fixed, then the
  61.     ball was dropped.  New draft expected in about two weeks.
  62.  
  63. --------------------------------------------------------------------
  64. (iii).    Update on the admin scoping draft
  65. --------------------------------------------------------------------
  66.  
  67.     Dave Meyer reported that the IANA has allocated the
  68.     administrative scope. The draft has needs a minor update
  69.     to the reserved ranges. A new draft will be posted
  70.     soon.
  71.  
  72. --------------------------------------------------------------------
  73. (iv).    Using TTLs with admin. scoped addresses
  74. --------------------------------------------------------------------
  75.  
  76.     Ross Finlayson gave an overview of his idea for using
  77.     using ttls with admin. scoped addresses. 
  78.  
  79.     The problem: pruning doesn't happen if TTL expires inside
  80.     the MBONE, because the router doesn't know that a
  81.     higher-TTL packet wont arrive later.  The one-line answer
  82.     -- make sure the TTL is high enough to reach admin. scope
  83.     boundaries.  If there were no flood-and-prune protocols,
  84.     this wouldn't be an issue. 
  85.  
  86.     What TTL should an app. use (when, e.g., sdr doesn't tell
  87.     it)? Easy answer: always 255 -- OK on a well-managed
  88.     intranet.
  89.  
  90.     But it's dangerous for the global internet -- there's no
  91.     guarantee scopes are universally set up correctly.
  92.     Border routers will get many flood-and-prune hits.
  93.  
  94.     Proposal -- each admin scope range has an effective
  95.     TTL large enough to reach all intended members. Defined
  96.     along with the range -- by IANA or dynamically? Apps
  97.     should always use exactly this TTL.  (But lower TTL
  98.     allowed for expanding-ring search.) 
  99.  
  100.     Implications for mrouters
  101.  
  102.     No effect on admin scope implementation 
  103.     mrouters may allow configuration in terms of TTL
  104.     thresholds alone. 
  105.         completely optional feature
  106.         packets to non-admin-scoped address check against TTL
  107.         thresh. as usual (but still no pruning).
  108.     Sysadmins may find TTL-threshold-only configuration simpler.
  109.     Lazy sysadmins get an easy migration path to admin. scoping.
  110.         admin scope boundaries would come automatically with some
  111.         s/w update.
  112.     Key Issues
  113.         App developers need guidance about what TTLs to
  114.         use w/ admin scoped addrs, even if the answer is
  115.         always 255. What effective TTLs are appropriate
  116.         for the ranges already     proposed?  (E.g., 15 for
  117.         site local 239.192/10?) 
  118.  
  119.     Q: Van: TTL is used for too many things loop suppression
  120.         expanding ring search; admin boundaries
  121.        
  122.  
  123.     The final recommendation was to abolish the use of TTL as
  124.     a boundary mechanism.  No action taken on this draft.
  125.  
  126.  
  127. --------------------------------------------------------------------
  128. (v).        (v).    Using DHCP to allocate multicast addresses
  129. --------------------------------------------------------------------
  130.  
  131.  
  132.     Baiju Patel discussed his draft using DHCP for multicast
  133.     address allocation. 
  134.  
  135.     Motivation:
  136.         Coordinated address allocation
  137.         Avoid collision
  138.         Support admin. scoped addresses
  139.         Common solution for all applications
  140.     Problem:
  141.         1. mechanism for allocating addresses
  142.         2. allocation policy
  143.         3. usage policy
  144.     Address #1 now, defer 2 & 3.
  145.  
  146.     Current art:
  147.         Application specific
  148.             guess (SDR)
  149.             a gatekeeper manages a set of addresses
  150.         Or individual solutions
  151.             hard to manage!
  152.  
  153.     Parameters which need to be associated with a multicast address
  154.         Scope
  155.             Classes of scopes: IANA defined or
  156.             Locally administered Examples:
  157.             Intel/Jones Farm, Intel/Oregon,
  158.             Intel,USA, ... 
  159.         Implementation of scope: by TTL or router
  160.         configuration -- not part of this proposal.
  161.         Start time
  162.         Lease time
  163.         TTL? You should be given an upper bound when you
  164.         get the right to use an address.
  165.  
  166.     Tried to leverage what exists, where possible ...
  167.  
  168.     DHCP -- used for two purposes
  169.         Allocation of IP addresses
  170.         Distribution of host configuration parameters
  171.         (DNS server, NNTP server, Router, ...) 
  172.     
  173.     Can we meet requirements with DHCP extensions?
  174.         Extend DHCP to provide scope information (a
  175.         number and a string) 
  176.  
  177.     Provide mechanisms to
  178.         request, allocate. renew lease, release assignments of
  179.         mcast addrs
  180.  
  181.     Details
  182.         - Client obtains scope list and unicast or
  183.           multicast address for MDHCP server using DHCPINFORM. 
  184.         - Client selects a scope, then sends a unicast or
  185.           multicast DHCPDISCOVER 
  186.         - Server(s) send unicast DHCPOFFER of multicast
  187.           address(es) 
  188.         - Client sends unicast or multicast DHCPREQUEST 
  189.         - Server sends DHCPACK or DHCPNAK.
  190.  
  191.     When a lease is created,some cookie is given out. Any
  192.     participant can use the cookie to renew the lease in
  193.     order, for example, to continue a conference after its
  194.     creator has left. 
  195.  
  196.     Other features --
  197.         - Client MDHCP and DHCP could be in a single
  198.           implementation. 
  199.         - Client MDHCP and DHCP could be separate, MDHCP
  200.           client would use (a new?) PORT option.
  201.         - Servers could be combined or separate. Use of
  202.           multicast or unicast ensures that DHCP-only
  203.           implementations are not affected by MDHCP
  204.           messages. 
  205.     Guidelines
  206.         - Server MUST Not allocate same address with
  207.           overlapping scope & time to two different requests.
  208.         - Server SHOULD avoid allocating an address that
  209.           is already allocated for a different time in
  210.           the same scope. 
  211.     Questions:
  212.  
  213.         Crawford: Use of multicast for MDHCP
  214.         non-interference with DHCP won't work in v6 
  215.     
  216.         Handley: SDR's scaling is good.
  217.     
  218.         Jacobson: Yes, and the scaling of MDHCP is bad.
  219.         No structure - space is flat - multiple servers
  220.         must coordinate, either by structure (which
  221.         wastes a lot) or by talking between servers.
  222.         How?  Block of addresses, if your app. needs more
  223.         than one. 
  224.  
  225.     Someone: but at a corporate-sized scale, this can work.
  226.  
  227.     
  228.  
  229.     No action taken by the working group.
  230.  
  231. --------------------------------------------------------------------
  232. (v).    Issues for an Inter-domain Multicast Routing Protocol
  233. --------------------------------------------------------------------
  234.  
  235.     David Meyer discussed his draft on issues for an
  236.     Inter-domain Multicast Routing Protocol. During the
  237.     description, he pointed out that many common Internet
  238.     applications exhibit point-to-multipoint or "multicast"
  239.     behavior. The world wide web's data distribution and
  240.     caching models, soft real-time applications such as video
  241.     conferencing and application sharing, and USENET News
  242.     (NNTP) are examples of common applications which assume a
  243.     point-to-multipoint distribution model. These
  244.     applications have historically relied on unicast
  245.     technologies to implement point-to-multipoint or
  246.     multipoint-to-multipoint communication topologies. In
  247.     particular, multipoint communication in the Internet had
  248.     been and is still is (in many cases) implemented by
  249.     replicating unicast flows, one for each receiver.   
  250.  
  251.     Replicating unicast flows is clearly neither efficient
  252.     nor scalable; the problem is exacerbated in the 
  253.     inter-domain environment, where resources are
  254.     particularly scarce. Over the past few years, however,
  255.     efficient IP layer multicasting has been recognized as
  256.     one of the essential architectural features required in
  257.     an Internet that can scale to very large sizes.    
  258.  
  259.     In recent years we have seen the first multicast routing
  260.     and forwarding protocols designed and deployed on the
  261.     Internet [DVMRP, PIMARCH, CBT]. While these protocols
  262.     have been relatively successful in small scale
  263.     deployment [MBONE], However, these protocols have
  264.     exhibited various deficiencies when scaling to the
  265.     Internet sizes while still providing adequate policy
  266.     control for network service providers.
  267.  
  268.     The seminal work on multicast routing is contained in
  269.     Steve Deering's thesis [DEERING89]. Deering outlined a
  270.     mechanism for building shortest path multicast
  271.     distribution trees (SPT) using Reverse Path Forwarding
  272.     (RPF). For each (S,G) pair, the method builds a
  273.     distribution tree rooted at the source such that each
  274.     receiver is on the shortest path back to the source (the
  275.     notation (S,G) represents a source,group pair). When the
  276.     path between a sender and receiver is symmetrical, RPF
  277.     computes the shortest path tree. The method is
  278.     data-driven, data is flooded down all the branches of the 
  279.     distribution tree. Nodes that have no downstream
  280.     receivers send "prune" packets upstream (toward the
  281.     source) to prune branches of the tree which have no
  282.     receivers. This protocol has become known as as
  283.     Dense-Mode [PIM-DM], and is most useful when group
  284.     members are densely clustered in some part of the
  285.     topology.  
  286.  
  287.     To address the case of sparsely distributed group
  288.     members, Minimal Shared-Tree (MST) distribution
  289.     algorithms have been introduced. Shared distribution
  290.     trees have their origin as approximations of Steiner
  291.     Minimal Trees, and use a variation on Center-based trees
  292.     [WALL80] as their basis. Current shared tree multicast
  293.     distribution algorithms include Core Based Trees [CBT]
  294.     and Protocol Independent Multicasting Sparse Mode
  295.     [PIM-SM]. The root of the shared tree is often called a
  296.     Core or Rendezvous Point (RP). 
  297.  
  298.     Shortest Path and Shared Tree algorithms represent
  299.     trade-offs [WEI93] at three fundamental points in the
  300.     design space: 
  301.  
  302.     - Delay 
  303.  
  304.           Shared tree algorithms have worse delays for large
  305.       groups, since no known RP placement can produce shortest
  306.       paths. Shared tree algorithms also don't handle dynamic
  307.       group membership as well as shortest path tree, since
  308.       optimal RP placement is a function of group membership
  309.       distribution. In summary, SPT multicast routing
  310.       algorithms like DVMRP or MOSPF [MOSPF] have the worst
  311.       case delay is bounded by the round-trip time (RTT) from
  312.       the receiver to the sender, whereas shared tree
  313.       algorithms like PIM-SM and CBT have worst case delay
  314.       bounded by twice the RTT from receiver to RP/core
  315.       (assuming symmetrical unicast routing from sender to
  316.       receiver). 
  317.  
  318.     - Traffic Concentration
  319.  
  320.       Traffic concentration is a well known problem for
  321.       shared tree protocols. For some important classes of
  322.       topologies, shared tree and source trees yield the same
  323.       delay characteristics.  
  324.   
  325.     - State information
  326.  
  327.       Shortest path trees require much more state
  328.       information. Shared tree approaches only require a
  329.       single tree, used by all, while the shortest path trees
  330.       are relative to each site as source.  It is possible
  331.       that shortest path trees could require a (S,G) pair for
  332.       every active sender or receiver in the Internet.  
  333.   
  334.  
  335.     Today's multi-provider Internet reveals a fourth issue in
  336.     the traditional design space: the ability to express and
  337.     implement inter-provider policies. However, unlike 
  338.     current inter-domain unicast routing protocols (which have
  339.     a rich and well developed policy model), neither of
  340.     the two classes of algorithms described are adaptable in
  341.     a straight forward way to the policy oriented
  342.     multi-provider environment found in todays Internet.
  343.  
  344.     A simple example illustrates the problem: Consider three
  345.     providers, A, B, and C, that  have connections to a
  346.     shared-media exchange point. Assume that connectivity is
  347.     non-transitive due to some policy (the common case, since
  348.     bi-lateral agreements are a very common form of peering
  349.     agreement).  That is, A and B are peers, B and C are
  350.     peers, but A and C  are not peers. Now, consider a source
  351.     S covered by a prefix P, where P belongs to a customer of
  352.     A (i.e., P is advertised by A). Now, multicast  packets
  353.     forwarded by A's border router will be correctly accepted
  354.     by B's border router, since it sees the RPF interface for
  355.     P to be the shared-media of the exchange. 
  356.  
  357.     Likewise, C's  border router will reject the packets
  358.     forwarded  by A's border router because, by definition,
  359.     C's border router does not have A's routes   through its
  360.     interface on the exchange (so packets sourced "inside" A
  361.     fail the RPF check in C's border router).  
  362.  
  363.     In this example above, RPF is a powerful enough
  364.     mechanism to inform C that it should not accept  packets
  365.     sourced in P from A over the exchange. However, consider
  366.     the common case in which P  multi-homed to both A and B.
  367.     C now sees a route for P from B through its interface on
  368.     the exchange.  Without some form of multi-provider
  369.     cooperation and/or packet filtering (or a more
  370.     sophisticated RPF mechanism), C could accept  multicast
  371.     packets sourced by S from A across the shared media
  372.     exchange, even though A and C have not entered into any
  373.     agreement on the exchange. The situation described above
  374.     is  caused by the overloading of the semantics of unicast
  375.     route (as described above), and the reliance on the RPF
  376.     check as a policy mechanism.  
  377.  
  378.  
  379.     Note: During the IDMR meeting, it was suggested that this 
  380.     document be reworked into a requirements document. Meyer
  381.     agreed to edit the document.
  382.  
  383. --------------------------------------------------------------------
  384.     (vi).    Current IDMR Inter-domain Routing Proposals
  385. --------------------------------------------------------------------
  386.  
  387.     Dave Thaler (Deborah Estrin, Dino Farinacci) -- IDMRP
  388.     concepts and deployment "A number of ideas that a number
  389.     of us have been banging around for the last year or so." 
  390.  
  391.  
  392.     Goals of an IDMRP:
  393.         low BW overhead
  394.         minimize state
  395.         low CPU consumption
  396.         fast convergence
  397.  
  398.     Today's interoperability can achieve source-specific
  399.     trees in flood-and-prune regions.  Either no pruning, or
  400.     state per source. Must flood either the data or the
  401.     membership information Result: NOT acceptable
  402.  
  403.     Not a new problem - inter-domain mcast has the same menu
  404.     of choices and intra-domain mcast. 
  405.  
  406.     Concentrate work on an O(G) state O(C) mumble protocol,
  407.     somewhat like HDVMRP Future goal: "Group-shared three of
  408.     domains" Features of IDMRP scheme in progress independent
  409.     of M-IGP 
  410.  
  411.     Group-shared trees of domain (low state volume) 
  412.  
  413.     Bidirectional group-shared tree (minimize 3rd party
  414.     dependence 
  415.  
  416.     Group state is aggregatable 
  417.     
  418.     A group-shared tree of domains has effects on policy:
  419.     - Can't have source-specific policies on group shared
  420.       trees  
  421.     -- Can have group-specific policies
  422.     
  423.     Requiring switch to SPT first (before receiving data)
  424.     would introduce a bursty-source problem, so don't require
  425.     that.
  426.  
  427.     Summary: tradeoff between amount of state and amount of
  428.     policy control. 
  429.  
  430.     Using center-based trees requires mapping group G to root
  431.     for RPF; however,  for locality, want every domain to be
  432.     a potential root domain (root gets all data).  E.g., a
  433.     group for a "lecture" should be rooted at the lecturer's
  434.     domain. Advertising to BSR model is not as scalable when
  435.     number of candidate RPs is unbounded. We want group state
  436.     to be aggregatable.
  437.  
  438.     Proposal: put some structure into multicast addresses
  439.  
  440.     -- Dynamically assign group prefixes to user domains with
  441.        topological significance (and repeat for each scope
  442.        level). 
  443.  
  444.     -- What do you do RPF check against?  Use a
  445.        "representative IP address" (aka Landmark address) for
  446.        RPF check at BRs.  BRs must map G to Landmark address
  447.        ... 
  448.  
  449.     -- Implications: Local-prefix periodically announced in
  450.        each domain. Address allocators (eg, SDR) see prefix
  451.        per scope and allocate from that range.
  452.  
  453.     -- Other allocation schemes merely give poorer tree of
  454.            domains for the traffic.
  455.  
  456.     Policy II - Tragedy of the commons
  457.  
  458.     -- Transiting multicast means you're willing to transit
  459.        between subtree branches. 
  460.  
  461.     -- Since no single domain is the root for all groups,
  462.        this (bold assertion follows) evens out. 
  463.  
  464.     -- Result: less overhead for everyone.
  465.  
  466.     If people honor the recommended address allocation, the
  467.     groups you provide transit for are usually your
  468.     customers' groups. 
  469.  
  470.     Q: Draw the picture in the real internet and "usually" ->
  471.        "occasionally." 
  472.  
  473.     Q: A long three-way discussion among Randy Bush, Van
  474.        Jacobson and Sue Hares about transit, policy, peering,
  475.        and so on.  
  476.  
  477.  
  478.  
  479. --------------------------------------------------------------------
  480.     (vii).    M-BGP
  481. --------------------------------------------------------------------
  482.  
  483.     Tony Ballardie described his draft with Martin Tatham
  484.     that extends BGP to  support inter-domain multicast
  485.     routing (policy). The main issues here include the fact
  486.     that this proposal just builds paths, and not
  487.     distribution trees.
  488.  
  489.     An interesting "convergence" is occurring with the
  490.     IDR. They are looking at various multi-protocol BGP
  491.     proposals. Of course, M-BGP could be viewed as another
  492.     address in this context.
  493.  
  494.     
  495. --------------------------------------------------------------------
  496.     (ix).    Multicast Diagnostic Tools
  497. --------------------------------------------------------------------
  498.  
  499.     Bernard Aboba outlined the current draft. Few comments
  500.     were given. No working group action was taken.
  501.  
  502. --------------------------------------------------------------------
  503.     (x).    Intro to Multicast Routing
  504. --------------------------------------------------------------------
  505.  
  506.     Tom Maufer introduced himself and asked for additional
  507.     comments. draft-ietf-mboned-intro-multicast-00.txt is in 
  508.     WG last call.
  509.  
  510.  
  511. --------------------------------------------------------------------
  512.     (xi).    Rate Limiting Draft
  513. --------------------------------------------------------------------
  514.  
  515.     Doug Junkins outlined the current draft. A few comments
  516.     were given. A new draft will be posted.
  517.  
  518.