home *** CD-ROM | disk | FTP | other *** search
/ Internet Info 1997 December / Internet_Info_CD-ROM_Walnut_Creek_December_1997.iso / ietf / 93mar / mbone-minutes-93mar.txt < prev    next >
Text File  |  1993-05-13  |  12KB  |  303 lines

  1.  
  2. CURRENT_MEETING_REPORT_
  3.  
  4.  
  5. Reported by Matt Mathis/PSC
  6.  
  7. Minutes of the MBONE Engineering and Operations BOF (mbone)
  8.  
  9. IETF Organizational Discussion
  10.  
  11. We debated the need for a formal MBONE Working Group.  This requires
  12. someone to volunteer to be the Chair and to draft a Charter.  After some
  13. inconclusive discussion it was observed that no one was willing to
  14. volunteer.  The people present were mostly network operators who are
  15. participating in the mbone.  Unfortunately a number of network operators
  16. who feel victimized by the mbone were not present.
  17.  
  18. General Issues
  19.  
  20.  
  21.    o We must balance the risk:  The Mbone is dangerous, but the
  22.      applications are very useful, and may drive the next generation
  23.      Internet technology.
  24.  
  25.    o Critical problems are largely due to the lack of tools to manage
  26.      the mbone.
  27.  
  28.    o There are at least three constituents in the Mbone/multicast
  29.      community:  Network operators, who are providing the mbone core (at
  30.      least in the NSFnet context), network subscribers, who are
  31.      typically mbone stubs and finally, mbone end users.  There was
  32.      considerable discussion about these groups, and their identity.
  33.      These three groups have substantially different cultures,
  34.      approaches to problems and worries.
  35.  
  36.       -  The network operators have a service oriented perspective and
  37.          an intimate understanding of the underlying topology.  Almost
  38.          all of the people present were network operators.
  39.  
  40.       -  The subscribers are typically researchers who want mbone
  41.          connectivity but are not really interested in the details.
  42.          They usually operate stub tunnels to connect campuses into the
  43.          mbone.
  44.  
  45.       -  The mbone end users are most likely applications developers or
  46.          true users, and use local area multicasting to reach a
  47.          subscriber tunnel.  This community is likely to have no
  48.          knowledge about operational details of the mbone.
  49.  
  50.       -  [I have since realized that there are a number of core mbone
  51.          hubs which are managed by multicast researchers on the premises
  52.          of a network operator, with only minor supervision by the
  53.  
  54.                                    1
  55.  
  56.  
  57.  
  58.  
  59.  
  60.          operator.  This straddles the operator/subscriber distinction
  61.          above.]
  62.  
  63.  
  64.    o We discussed the mbone mailing list.  Some people wanted to split
  65.      the mailing list such that operators could have candid discussions
  66.      about debugging without kibitzing from overzealous users.  The
  67.      consensus was not to make any changes and use the mbone list as it
  68.      stands.
  69.  
  70.    o The hypothetical problem came up about a subscriber who was not
  71.      getting satisfactory service from his network operator.  Would
  72.      operators support tunnels into other regionals?  The Group was
  73.      unanimous that this is a bad practice, and shouldn't be allowed.
  74.      Furthermore, subscriber to subscriber tunnels are even worse, and
  75.      the operators should not to provide such poor service that their
  76.      subscribers resort to such tactics.  There was some discussion of
  77.      the business implications to network operators.
  78.  
  79.    o We discussed the new encapsulated tunneling code.  The original
  80.      code is a seriously bastardized use of LSRR. The new mrouted
  81.      supports both, defaulting to encapsulation.  Use the ``srcrt''
  82.      directive in mrouted.conf to get LSRR. Matt pointed out that those
  83.      who most endanger the rest of the Internet were also those who
  84.      didn't require the new encapsulation code for performance.  A long
  85.      discussion of capabilities ensued.  One salient point was that the
  86.      LSRR code seriously violates the IP specifications.  There was talk
  87.      of adding clean source routing options to the encapsulating code
  88.      such that network operators could prevent tunnels from moving to
  89.      fall back infrastructure during network failures.  This would cause
  90.      multicasting load to be shed during failures of primary IP
  91.      connectivity.
  92.  
  93.  
  94. Most of the rest of the meeting was spent drafting a wish list.  Some of
  95. the items are appropriate for a future meeting of this BOF or Working
  96. Group.  Other items are appropriate for specific groups or projects
  97. involved in multicast research.  The items are ordered by priority
  98. within each section, but the sections are independent of each other.
  99. Throughout the discussion it was understood that resources are tight,
  100. and in many cases we were asking people to contribute effort without
  101. additional support.
  102.  
  103. Items for Network Operators or Some Future Mbone Working Group
  104.  
  105.  
  106.    o Put more pressure on router vendors to provide implementations that
  107.      perform well with LSRR.
  108.  
  109.    o Generate an mbone operational guidelines document.  This could be
  110.      started by splitting the existing FAQ document into separate user
  111.      and operator documents.
  112.  
  113.                                    2
  114.  
  115.  
  116.  
  117.  
  118.  
  119.    o Explicitly engineer the mbone topology, metrics, and thresholds.
  120.      This is a daunting task with insufficient tools or poor knowledge
  121.      of the actual Internet topology.
  122.  
  123.    o There needs to be a global policy on bandwidth budgeting and
  124.      allocation.  The mbone is currently a single global resource, and
  125.      must be allocated as such.  Sometimes there will be two groups with
  126.      legitimate reasons to do multichannel world-wide multicasts, and
  127.      there must be some mechanism to arbitrate between their needs.
  128.  
  129.  
  130. Infrastructure Tools, to Help Engineer and Operate the Mbone Itself
  131.  
  132.  
  133.    o Three different Mapping tools:
  134.  
  135.       -  A configuration map which shows all configured tunnels, even if
  136.          they are not ``up'' - to discover configuration anomalies.
  137.       -  A tunnel map (done:  Pavel Curtis's tool)
  138.       -  A flow map, showing the distribution tree for an arbitrary
  139.          transmitter.
  140.  
  141.    o Alarms that can be triggered by excessive mbone traffic, such that
  142.      sites with large pipes can protect the rest of the Internet.
  143.  
  144.    o A ``tunnel trap'' to detect unauthorized (e.g., client-to-client)
  145.      tunnels passing through a regional.  Several algorithms were
  146.      discussed.
  147.  
  148.    o Snmp/opstats style tools for logging load (traffic) levels.
  149.  
  150.    o Map Tracing - proxy IP traceroute along tunnels to detect when they
  151.      share the common infrastructure.
  152.  
  153.    o Traceroute (follow the path from the transmitter to a receiver) -
  154.      deemed to be almost the same as the flow map but not as useful.  (A
  155.      Flow map gives the entire flow topology.)
  156.  
  157.  
  158. Transport tools, to Verify, Monitor and Diagnose Signal Quality
  159.  
  160. These should use the Audio Video Transport protocol (AVT) directly
  161. without specific knowledge of the applications, except to mimic
  162. aggregate traffic statistics.  All should be supported on all platforms
  163. supporting mrouted.  (Not just the platform supporting some particular
  164. application).
  165.  
  166.  
  167.    o Signal quality meters - To display packet loss and delay statistics
  168.      throughout the distribution tree.  It is critical that this tool
  169.  
  170.                                    3
  171.  
  172.  
  173.  
  174.  
  175.  
  176.      run on every mrouted platform.
  177.  
  178.    o (Talk) Spurt correlated signal quality - Display packet loss and
  179.      delay statistics correlated with the start of talk spurts - to
  180.      detect interactions due to competition between the mbone and other
  181.      Internet traffic.  (TCP congestion avoidance takes one round trip
  182.      time to back off, so congested links are often late/lossy during
  183.      the initial second of a talk spurt).
  184.  
  185.    o Basic test generator - generate traffic streams to mimic the 1st
  186.      order statistics of the more popular applications (Correct average
  187.      packet rate and size).  Again it is important that this tool not
  188.      require the actual transmitting platform, because the lead time to
  189.      acquire the transmitters has historically prevented the IETF
  190.      multicasts from being tested in advance.
  191.  
  192.    o Modulation test generator:  Transmit 5 second bursts (``spurts'')
  193.      of the above generator separated by 5 seconds of silence,
  194.      synchronized with GMT. This can be used to detect many different
  195.      problems using clock based monitors.  It is important that the
  196.      generators be (roughly) synchronized so this technique can be used
  197.      with an entire suite of sources.  A typical use might be to emulate
  198.      up to two video and two audio sources for an IETF, and correlating
  199.      network events, such as device errors and ethernet collision rates,
  200.      against the clock to determine if the mbone is causing a particular
  201.      problem.
  202.  
  203.  
  204. Applications which do not use AVT should have their own set of the above
  205. tools.
  206.  
  207. It is imperative that the majority of these tools run on all mrouted
  208. capable platforms.  It is currently very difficult to sectionalize
  209. distribution problems on paths through multiple mrouted tunnels that are
  210. incapable of running the specific applications.
  211.  
  212. Mrouted/tunnel Implementation Features
  213.  
  214.  
  215.    o Encapsulated tunnels (already done)
  216.  
  217.    o Support for ``on demand'' host tunnels, such that mrouted can be
  218.      used as a reflector for hosts that don't support multicast, such as
  219.      Mac's.  (This isn't really high priority, but it is relatively easy
  220.      to implement).
  221.  
  222.    o Implement pruning.  Currently all multicast traffic goes to all
  223.      tunnel connected nodes within the TTL limit, even if there are no
  224.      listeners.  Note that TTL mechanism is still needed because pruning
  225.      is not fast enough to protect slow links.
  226.  
  227.    o Implement aggregate packet rate and bandwidth limits, to protect
  228.  
  229.                                    4
  230.  
  231.  
  232.  
  233.  
  234.  
  235.      the underlying IP infrastructure from being flooded.
  236.  
  237.    o The routing protocol, DVMRP, should use the same tunnels as the
  238.      data to prevent the situations we see today where the unicast
  239.      routing can follow some path, but the data can not.  DVMRP sees the
  240.      tunnel as up but all of the data is discarded.
  241.  
  242.    o Support LSRR on encapsulated tunnels, so tunnels can be anchored to
  243.      specific IP infrastructure.
  244.  
  245.    o Correct/work around the BSD bug which prevents DVMRP from asserting
  246.      the source address of a tunnel on a multi-interfaced host.  This
  247.      causes IP routing to break tunnels when they move to other
  248.      interfaces because the other end does not recognize the source IP
  249.      address.  [A possible solution, which also partially addresses the
  250.      tunnel anchors, would be to specify the first hop address and have
  251.      mrouted install static host routes for tunnels.]
  252.  
  253.    o Mrouted support for traceroute and mapping infrastructure tools.
  254.  
  255.    o There needs to be a logging facility/level for monitoring DVMRP
  256.      routing problems.  Such a facility would report tunnel up/down
  257.      events and routing table changes.
  258.  
  259.  
  260. Steve Deering was present and both contributed and noted our comments.
  261.  
  262. The wish lists were presented to both the AVT Working Group and to the
  263. Operational Requirements Area Directorate (ORAD). There was general
  264. agreement that the items on the wish list are desirable and appropriate,
  265. but nobody agreed to implement anything.
  266.  
  267. There were some network operators present at the ORAD meeting who were
  268. upset that the MBONE BOF did not become a working group or take stronger
  269. positions regarding operational practices.  However most of these people
  270. were operators who had chosen not to participate in the mbone, and were
  271. therefore not in control of its impact on their own facilities.
  272.  
  273. Thanks to Jamshid Mahdavi for taking the Minutes.  It should be noted
  274. that the attendee list below was reconstructed after the fact and may
  275. not contain the names of all participants.
  276.  
  277. Attendees
  278.  
  279. Erik-Jan Bos             erik-jan.bos@surfnet.nl
  280. Douglas Carson           carson@utcc.utoronto.ca
  281. Henry Clark              henryc@oar.net
  282. Steve Deering            deering@parc.xerox.com
  283. Dale Finkelson           dmf@westie.mid.net
  284. Eugene Hastings          hastings@psc.edu
  285. Daniel Long              long@nic.near.net
  286. Bill Manning             bmanning@sesqui.net
  287.  
  288.                                    5
  289.  
  290.  
  291.  
  292.  
  293.  
  294. Matt Mathis              mathis@a.psc.edu
  295. David O'Leary            doleary@cisco.com
  296. Curtis Villamizar        curtis@ans.net
  297. Linda Winkler            lwinkler@anl.gov
  298. Paul Zawada              Zawada@ncsa.uiuc.edu
  299.  
  300.  
  301.  
  302.                                    6
  303.