home *** CD-ROM | disk | FTP | other *** search
/ PC go! 1996 January / Image.iso / pcgo / extra2 / faq / mbone.txt < prev    next >
Encoding:
Text File  |  1994-07-11  |  33.4 KB  |  657 lines

  1.   Frequently Asked Questions (FAQ) on the Multicast Backbone (MBONE)
  2.   ------------------------------------------------------------------
  3.            Steve Casner, casner@isi.edu, 6-May-93
  4.  
  5.       *** This file is venera.isi.edu:mbone/faq.txt ***
  6.       ***    Corrections and Additions Requested    ***
  7.  
  8. * What is the MBONE?
  9.  
  10.     The MBONE is an outgrowth of the first two IETF "audiocast"
  11.     experiments in which live audio and video were multicast from the
  12.     IETF meeting site to destinations around the world.  The idea is
  13.     to construct a semi-permanent IP multicast testbed to carry the
  14.     IETF transmissions and support continued experimentation between
  15.     meetings.  This is a cooperative, volunteer effort.
  16.  
  17.     The MBONE is a virtual network.  It is layered on top of portions
  18.     of the physical Internet to support routing of IP multicast
  19.     packets since that function has not yet been integrated into many
  20.     production routers.  The network is composed of islands that can
  21.     directly support IP multicast, such as multicast LANs like
  22.     Ethernet, linked by virtual point-to-point links called "tunnels".
  23.     The tunnel endpoints are typically workstation-class machines
  24.     having operating system support for IP multicast and running the
  25.     "mrouted" multicast routing daemon.
  26.  
  27. * How do IP multicast tunnels work?
  28.  
  29.     IP multicast packets are encapsulated for transmission through
  30.     tunnels, so that they look like normal unicast datagrams to
  31.     intervening routers and subnets.  A multicast router that wants to
  32.     send a multicast packet across a tunnel will prepend another IP
  33.     header, set the destination address in the new header to be the
  34.     unicast address of the multicast router at the other end of the
  35.     tunnel, and set the IP protocol field in the new header to be 4
  36.     (which means the next protocol is IP).  The multicast router at
  37.     the other end of the tunnel receives the packet, strips off the
  38.     encapsulating IP header, and forwards the packet as appropriate.
  39.  
  40.     Previous versions of the IP multicast software (before March 1993)
  41.     used a different method of encapsulation based on an IP Loose
  42.     Source and Record Route option.  This method remains an option in
  43.     the new software for backward compatibility with nodes that have
  44.     not been upgraded.  In this mode, the multicast router modifies
  45.     the packet by appending an IP LSRR option to the packet's IP
  46.     header.  The multicast destination address is moved into the
  47.     source route, and the unicast address of the router at the far end
  48.     of the tunnel is placed in the IP Destination Address field.  The
  49.     presence of IP options, including LSRR, may cause modern router
  50.     hardware to divert the tunnel packets through a slower software
  51.     processing path, causing poor performance.  Therefore, use of the
  52.     new software and the IP encapsulation method is strongly
  53.     encouraged.
  54.  
  55. * What is the topology of the MBONE?
  56.  
  57.     We anticipate that within a continent, the MBONE topology will be
  58.     a combination of mesh and star: the backbone and regional (or
  59.     mid-level) networks will be linked by a mesh of tunnels among
  60.     mrouted machines located primarily at interconnection points of
  61.     the backbones and regionals.  Some redundant tunnels may be
  62.     configured with higher metrics for robustness.  Then each regional
  63.     network will have a star hierarchy hanging off its node of the
  64.     mesh to fan out and connect to all the customer networks that want
  65.     to participate.
  66.  
  67.     Between continents there will probably be only one or two tunnels,
  68.     preferably terminating at the closest point on the MBONE mesh.  In
  69.     the US, this may be on the Ethernets at the two FIXes (Federal
  70.     Internet eXchanges) in California and Maryland.  But since the
  71.     FIXes are fairly busy, it will be important to minimize the number
  72.     of tunnels that cross them.  This may be accomplished using IP
  73.     multicast directly (rather than tunnels) to connect several
  74.     multicast routers on the FIX Ethernet.
  75.  
  76. * How is the MBONE topology going to be set up and coordinated?
  77.  
  78.     The primary reason we set up the MBONE e-mail lists (see below)
  79.     was to coordinate the top levels of the topology (the mesh of
  80.     links among the backbones and regionals).  This must be a
  81.     cooperative project combining knowledge distributed among the
  82.     participants, somewhat like Usenet.  The goal is to avoid loading
  83.     any one individual with the responsibility of designing and
  84.     managing the whole topology, though perhaps it will be necessary
  85.     to periodically review the topology to see if corrections are
  86.     required.
  87.  
  88.     The intent is that when a new regional network wants to join in,
  89.     they will make a request on the appropriate MBONE list, then the
  90.     participants at "close" nodes will answer and cooperate in setting
  91.     up the ends of the appropriate tunnels.  To keep fanout down,
  92.     sometimes this will mean breaking an existing tunnel to inserting
  93.     a new node, so three sites will have to work together to set up
  94.     the tunnels.
  95.  
  96.     To know which nodes are "close" will require knowledge of both the
  97.     MBONE logical map and the underlying physical network topology,
  98.     for example, the physical T3 NSFnet backbone topology map combined
  99.     with the network providers' own knowledge of their local topology.
  100.  
  101.     Within a regional network, the network's own staff can
  102.     independently manage the tunnel fanout hierarchy in conjunction
  103.     with end-user participants.  New end-user networks should contact
  104.     the network provider directly, rather than the MBONE list, to get
  105.     connected.
  106.  
  107. * What is the anticipated traffic level?
  108.  
  109.     The traffic anticipated during IETF multicasts is 100-300Kb/s, so
  110.     500Kb/s seems like a reasonable design bandwidth.  Between IETF
  111.     meetings, most of the time there will probably be no audio or
  112.     video traffic, though some of the background session/control
  113.     traffic may be present.  A guess at the peak level of experimental
  114.     use might be 5 simultaneous voice conversations (64Kb/s each).
  115.     Clearly, with enough simultaneous conversations, we could exceed
  116.     any bandwidth number, but 500Kb/s seems reasonable for planning.
  117.  
  118.     Note that the design bandwidth must be multiplied by the number of
  119.     tunnels passing over any given link since each tunnel carries a
  120.     separate copy of each packet.  This is why the fanout of each
  121.     mrouted node should be no more than 5-10 and the topology should
  122.     be designed so that at most 1 or 2 tunnels flow over any T1 line.
  123.  
  124.     While most MBONE nodes should connect with lines of at least T1
  125.     speed, it will be possible to carry restricted traffic over slower
  126.     speed lines.  Each tunnel has an associated threshold against
  127.     which the packet's IP time-to-live (TTL) value is compared.  By
  128.     convention in the IETF multicasts, higher bandwidth sources such
  129.     as video transmit with a smaller TTL so they can be blocked while
  130.     lower bandwidth sources such as compressed audio are allowed
  131.     through.
  132.  
  133. * Why should I (a network provider) participate?
  134.  
  135.     To allow your customers to participate in IETF audiocasts and
  136.     other experiments in packet audio/video, and to gain experience
  137.     with IP multicasting for a relatively low cost.
  138.  
  139. * What technical facilities and equipment are required for a network
  140.   provider to join the MBONE? 
  141.  
  142.     Each network-provider participant in the MBONE provides one or
  143.     more IP multicast routers to connect with tunnels to other
  144.     participants and to customers.  The multicast routers are
  145.     typically separate from a network's production routers since most
  146.     production routers don't yet support IP multicast.  Most sites use
  147.     workstations running the mrouted program, but the experimental
  148.     MOSPF software for Proteon routers is an alternative (see MOSPF
  149.     question below).
  150.  
  151.     It is best if the workstations can be dedicated to the multicast
  152.     routing function to avoid interference from other activities and
  153.     so there will be no qualms about installing kernel patches or new
  154.     code releases on short notice.  Since most MBONE nodes other than
  155.     endpoints will have at least three tunnels, and each tunnel
  156.     carries a separate (unicast) copy of each packet, it is also
  157.     useful, though not required, to have multiple network interfaces
  158.     on the workstation so it can be installed parallel to the unicast
  159.     router for those sites with configurations like this:
  160.  
  161.            +----------+
  162.            | Backbone |
  163.            |   Node   |
  164.            +----------+
  165.             |
  166.     ------------------------------------------ External DMZ Ethernet
  167.          |               |
  168.     +----------+    +----------+
  169.     |  Router  |    |  mrouted |
  170.     +----------+    +----------+
  171.          |               |
  172.     ------------------------------------------ Internal DMZ Ethernet
  173.  
  174.     (The "DMZ" Ethernets borrow that military term to describe their
  175.     role as interface points between networks and machines controlled
  176.     by different entities.)  This configuration allows the mrouted
  177.     machine to connect with tunnels to other regional networks over
  178.     the external DMZ and the physical backbone network, and connect
  179.     with tunnels to the lower-level mrouted machines over the internal
  180.     DMZ, thereby splitting the load of the replicated packets.  (The
  181.     mrouted machine would not do any unicast forwarding.)
  182.  
  183.     Note that end-user sites may participate with as little as one
  184.     workstation that runs the packet audio and video software and has
  185.     a tunnel to a network-provider node.
  186.  
  187. * What skills are needed to participate and how much time might have
  188.   to be devoted to this?
  189.  
  190.     The person supporting a network's participation in the MBONE
  191.     should have the skills of a network engineer, but a fairly small
  192.     percentage of that person's time should be required.  Activities
  193.     requiring this skill level would be choosing a topology for
  194.     multicast distribution with in the provider's network and
  195.     analyzing traffic flow when performance problems are identified.
  196.  
  197.     To set up and run an mrouted machine will require the knowledge to
  198.     build and install operating system kernels.  If you would like to
  199.     use a hardware platform other than those currently supported, then
  200.     you might also contribute some software implementation skills!
  201.  
  202.     We will depend on participants to read mail on the appropriate
  203.     mbone mailing list and respond to requests from new networks that
  204.     want to join and are "nearby" to coordinate the installation of
  205.     new tunnel links.  Similarly, when customers of the network
  206.     provider make requests for their campus nets or end systems to be
  207.     connected to the MBONE, new tunnel links will need to be added
  208.     from the network provider's multicast routers to the end systems
  209.     (unless the whole network runs MOSPF).
  210.  
  211.     Part of the resources that should be committed to participate
  212.     would be for operations staff to be aware of the role of the
  213.     multicast routers and the nature of multicast traffic, and to be
  214.     prepared to disable multicast forwarding if excessive traffic is
  215.     found to be causing trouble.  The potential problem is that any
  216.     site hooked into the MBONE could transmit packets that cover the
  217.     whole MBONE, so if it became popular as a "chat line", all
  218.     available bandwidth could be consumed.  Steve Deering plans to
  219.     implement multicast route pruning so that packets only flow over
  220.     those links necessary to reach active receivers; this will reduce
  221.     the traffic level.  This problem should be manageable through the
  222.     same measures we already depend upon for stable operation of the
  223.     Internet, but MBONE participants should be aware of it.
  224.  
  225. * Which workstation platforms can support the mrouted program?
  226.  
  227.     The most convenient platform is a Sun SPARCstation simply because
  228.     that is the machine used for mrouted development.  An older
  229.     machine (such as a SPARC-1 or IPC) will provide satisfactory
  230.     performance as long as the tunnel fanout is kept in the 5-10
  231.     range.  The platforms for which software is available:
  232.  
  233.     Machines             Operating Systems       Network Interfaces
  234.     --------             -----------------       ------------------
  235.     Sun SPARC            SunOS 4.1.1,2,3         ie, le, lo
  236.     Vax or Microvax      4.3+ or 4.3-tahoe       de, qe, lo
  237.     Decstation 3100,5000 Ultrix 3.1c, 4.1, 4.2a  ln, se, lo
  238.     Silicon Graphics     All ship with multicast
  239.  
  240.     There is an interested group at DEC that may get the software
  241.     running on newer DEC systems with Ultrix and OSF/1.  Also, some
  242.     people have asked about support for the RS-6000 and AIX or other
  243.     platforms.  Those interested could use the mbone list to coordinate
  244.     collaboration on porting the software to these platforms!
  245.  
  246.     An alternative to running mrouted is to run the experimental MOSPF
  247.     software in a Proteon router (see MOSPF question below).
  248.  
  249. * Where can I get the IP multicast software and mrouted program?
  250.  
  251.     The IP multicast software is available by anonymous FTP from the
  252.     vmtp-ip directory on host gregorio.stanford.edu.  Here's a
  253.     snapshot of the files:
  254.  
  255.     ipmulti-pmax31c.tar
  256.     ipmulti-sunos41x.tar.Z        Binaries & patches for SunOS 4.1.1,2,3
  257.     ipmulticast-ultrix4.1.patch
  258.     ipmulticast-ultrix4.2a-binary.tar
  259.     ipmulticast-ultrix4.2a.patch
  260.     ipmulticast.README        [** Warning: out of date **]
  261.     ipmulticast.tar.Z        Sources for BSD
  262.  
  263.     You don't need kernel sources to add multicast support.  Included
  264.     in the distributions are files (sources or binaries, depending
  265.     upon the system) to modify your BSD, SunOS, or Ultrix kernel to
  266.     support IP multicast, including the mrouted program and special
  267.     multicast versions of ping and netstat.
  268.  
  269.     Silicon Graphics includes IP multicast as a standard part of their
  270.     operating system.  The mrouted executable and ip_mroute kernel
  271.     module are not installed by default; you must install the
  272.     eoe2.sw.ipgate subsystem and "autoconfig" the kernel to be able to
  273.     act as a multicast router.  In the IRIX 4.0.x release, there is a
  274.     bug in the kernel code that handles multicast tunnels; an
  275.     unsupported fix is available via anonymous ftp from sgi.com in the
  276.     sgi/ipmcast directory.  See the README there for details on
  277.     installing it.
  278.  
  279.     IP multicast is also included in Sun's Solaris 2.1 and in BSD 4.4
  280.     when/if it is released.
  281.  
  282.     The most common problem encountered when running this software is
  283.     with hosts that respond incorrectly to IP multicasts.  These
  284.     responses typically take the form of ICMP network unreachable,
  285.     redirect, or time-exceeded error messages, which are a nuisance
  286.     but mostly harmless until we get several such hosts each sending a
  287.     packet in response to 50 packets per second of packet audio.
  288.     These responses are in violation of the current IP specification
  289.     and, with luck, will disappear over time.
  290.  
  291. * What documentation is available?
  292.  
  293.     Documentation on the IP multicast software is included in the
  294.     distribution on gregorio.stanford.edu (ipmulticast.README).
  295.     RFC1112 specifies the "Host Extensions for IP Multicasting".
  296.  
  297.     Multicast routing algorithms are described in the paper "Multicast
  298.     Routing in Internetworks and Extended LANs" by S. Deering, in the
  299.     Proceedings of the ACM SIGCOMM '88 Conference.
  300.  
  301.     There is an article in the June 1992 ConneXions about the first
  302.     IETF audiocast from San Diego, and a later version of that article
  303.     is in the July 1992 ACM SIGCOMM CCR.  A reprint of the latter
  304.     article is available by anonymous FTP from venera.isi.edu in the
  305.     file pub/ietf-audiocast-article.ps.  There is no article yet about
  306.     later IETF audio/videocasts.
  307.  
  308. * Where can I get a map of the MBONE?
  309.  
  310.     Two Postscript files are available on parcftp.xerox.com:
  311.  
  312.         /pub/net-research/mbone-map-{big,small}.ps
  313.  
  314.     The small one fits on one page and the big one is four pages that
  315.     have to be taped together for viewing.  This map is produces from
  316.     topology information collected automatically from all MBONE nodes
  317.     running the up-to-date released of the mrouted program (some are
  318.     not yet updated so links beyond them cannot be seen).  Pavel
  319.     Curtis at Xerox PARC has added the mechanisms to automatically
  320.     collect the map data and produce the map.  (Thanks also to Paul
  321.     Zawada of NCSA who manually produced an earlier map of the MBONE.)
  322.  
  323. * What is DVMRP?
  324.  
  325.     DVMRP is the Distance Vector Multicast Routing Protocol; it is the
  326.     routing protocol implemented by the mrouted program.  An earlier
  327.     version of DVMRP is specified in RFC-1075.  However, the version
  328.     implemented in mrouted is quite a bit different from what is
  329.     specified in that RFC (different packet format, different tunnel
  330.     format, additional packet types, and more).  It maintains
  331.     topological knowledge via a distance-vector routing protocol (like
  332.     RIP, described in RFC-1058), upon which it implements a multicast
  333.     forwarding algorithm called Truncated Reverse Path Broadcasting.
  334.     DVMRP suffers from the well-known scaling problems of any
  335.     distance-vector routing protocol.
  336.  
  337. * What is MOSPF?
  338.  
  339.     MOSPF is the IP multicast extension to the OSPF routing protocol,
  340.     currently an Internet Draft.  John Moy has implemented MOSPF for
  341.     the Proteon router.  A network of routers running MOSPF can
  342.     forward IP multicast packets directly, sending no more than one
  343.     copy over any link, and without the need for any tunnels.  This is
  344.     how IP multicasting within a domain is supposed to work.
  345.  
  346. * Can MOSPF and DVMRP interoperate?
  347.  
  348.     At the Boston IETF, John Moy agreed to add support for DVMRP to his
  349.     MOSPF implementation.  He hopes to have this completed "well in
  350.     advance of the next IETF".  When it is finished, you will be able
  351.     to set up a DVMRP tunnel from an mrouted to Proteon a router,
  352.     glueing together the DVMRP with MOSPF domains (the MOSPF domains
  353.     will look pretty like ethernets to the multicast topology).
  354.  
  355.     The advantages to linking DVMRP with MOSPF are: fewer configured
  356.     tunnels, and less multicast traffic on the links inside the MOSPF
  357.     domain.  There are also a couple potential drawbacks: increasing
  358.     the size of DVMRP routing messages, and increasing the number of
  359.     external routes in the OSPF systems.  However, it should be
  360.     possible to alleviated these drawbacks by configuring area address
  361.     ranges and by judicious use of MOSPF default routing.
  362.  
  363. * How do I join the MBONE?
  364.  
  365.     STEP 1: If you are an end-user site (e.g., a campus), please
  366.     contact your network provider.  If your network provider is not
  367.     participating in the MBONE, you can arrange to connect to some
  368.     nearby point that is on the MBONE, but it is far better to
  369.     encourage your network provider to participate to avoid
  370.     overloading links with duplicate tunnels to separate end nodes.
  371.     Below is a list of some network providers who are participating in
  372.     the MBONE, but this list is likely not to be complete.
  373.  
  374.     AlterNet    ops@uunet.uu.net
  375.     CERFnet        mbone@cerf.net
  376.     CICNet        mbone@cic.net
  377.     CONCERT        mbone@concert.net
  378.     Cornell        swb@nr-tech.cit.cornell.edu
  379.     JvNCnet        multicast@jvnc.net
  380.     Los Nettos    prue@isi.edu
  381.     NCAR        mbone@ncar.ucar.edu
  382.     NCSAnet        mbone@cic.net
  383.     NEARnet        nearnet-eng@nic.near.net
  384.     OARnet        oarnet-mbone@oar.net
  385.     PSCnet        pscnet-admin@psc.edu
  386.     PSInet        mbone@nisc.psi.net
  387.     SESQUINET    sesqui-tech@sesqui.net
  388.     SDSCnet        mbone@sdsc.edu
  389.     SURAnet        multicast@sura.net
  390.     UNINETT        mbone-no@uninett.no
  391.  
  392.     If you are a network povider, send a message to the -request
  393.     address of the mailing list for your region to be added to that
  394.     list for purposes of coordinating setup of tunnels, etc:
  395.  
  396.     mbone-eu:    mbone-eu-request@sics.se             Europe
  397.     mbone-jp:    mbone-jp-request@wide.ad.jp          Japan
  398.     mbone-korea: mbone-korea-request@mani.kaist.ac.kr Korea
  399.     mbone-na:    mbone-na-request@isi.edu             North America
  400.     mbone-oz:    mbone-oz-request@internode.com.au    Australia
  401.     mbone:       mbone-request@isi.edu                other
  402.  
  403.     These lists are primarily aimed at network providers who would be
  404.     the top level of the MBONE organizational and topological
  405.     hierarchy.  The mailing list is also a hierarchy; mbone@isi.edu
  406.     forwards to the regional lists, then those lists include expanders
  407.     for network providers and other institutions.  Mail of general
  408.     interest should be sent to mbone@isi.edu, while regional topology
  409.     questions should be sent to the appropriate regional list.
  410.  
  411.     Individual networks may also want to set up their own lists for
  412.     their customers to request connection of campus mrouted machines
  413.     to the network's mrouted machines.  Some that have done so were
  414.     listed above.
  415.  
  416.     STEP 2: Set up an mrouted machine, build a kernel with IP
  417.     multicast extensions added, and install the kernel and mrouted;
  418.     or, install MOSPF software in a Proteon router.
  419.  
  420.     STEP 3: Send a message to the mbone list for your region asking to
  421.     hook in, then coordinate with existing nodes to join the tunnel
  422.     topology.
  423.  
  424. * How is a tunnel configured?
  425.  
  426.     Mrouted automatically configures itself to forward on all
  427.     multicast-capable interfaces, i.e. interfaces that have the
  428.     IFF_MULTICAST flag set (excluding the loopback "interface"), and
  429.     it finds other mrouteds directly reachable via those interfaces.
  430.     To override the default configuration, or to add tunnel links to
  431.     other mrouteds, configuration commands may be placed in
  432.     /etc/mrouted.conf.  There are two types of configuration command:
  433.  
  434.         phyint <local-addr>   [disable]   [metric <m>] [threshold <t>]
  435.  
  436.         tunnel <local-addr> <remote-addr> [metric <m>] [threshold <t>]
  437.  
  438.     The phyint command can be used to disable multicast routing on the
  439.     physical interface identified by local IP address <local-addr>, or
  440.     to associate a non-default metric or threshold with the specified
  441.     physical interface.  Phyint commands should precede tunnel
  442.     commands.
  443.  
  444.     The tunnel command can be used to establish a tunnel link between
  445.     local IP address <local-addr> and remote IP address <remote-addr>,
  446.     and to associate a non-default metric or threshold with that
  447.     tunnel.  The tunnel must be set up in the mrouted.conf files of
  448.     both ends before it will be used.  The keyword "srcrt" can be
  449.     added just before the keyword "metric" to choose source routing
  450.     for the tunnel if necessary because the other end has not yet
  451.     upgraded to use IP encapsulation.  Upgrading is highly encouraged.
  452.     If the methods don't match at the two ends, the tunnel will appear
  453.     to be up according to mrouted typeouts, but no multicast packets
  454.     will flow.
  455.  
  456.     The metric is the "cost" associated with sending a datagram on the
  457.     given interface or tunnel; it may be used to influence the choice
  458.     of routes.  The metric defaults to 1.  Metrics should be kept as
  459.     small as possible, because mrouted cannot route along paths with a
  460.     sum of metrics greater than 31.  When in doubt, the following
  461.     metrics are recommended:
  462.  
  463.         LAN, or tunnel across a single LAN: 1
  464.     any subtree with only one connection point: 1
  465.         serial link, or tunnel across a single serial link: 1
  466.         multi-hop tunnel: 2 or 3
  467.         backup tunnels: sum of metrics on primary path + 1
  468.  
  469.     The threshold is the minimum IP time-to-live required for a
  470.     multicast datagram to be forwarded to the given interface or
  471.     tunnel.  It is used to control the scope of multicast datagrams.
  472.     (The TTL of forwarded packets is only compared to the threshold,
  473.     it is not decremented by the threshold.  Every multicast router
  474.     decrements the TTL by 1.)  The default threshold is 1.
  475.  
  476.     Since the multicast routing protocol implemented by mrouted does
  477.     not yet prune the multicast delivery trees based on group
  478.     membership (it does something called "truncated broadcast", in
  479.     which it prunes only the leaf subnets off the broadcast trees), we
  480.     instead use a kludge known as "TTL thresholds" to prevent
  481.     multicasts from traveling along unwanted branches.  This is NOT
  482.     the way IP multicast is supposed to work; MOSPF does it right, and
  483.     mrouted will do it right some day.
  484.  
  485.     Before the November 1992 IETF we established the following
  486.     thresholds.  The "TTL" column specifies the originating IP
  487.     time-to-live value to be used by each application.  The "thresh"
  488.     column specifies the mrouted threshold required to permit passage
  489.     of packets from the corresponding application, as well as packets
  490.     from all applications above it in the table:
  491.                         TTL     thresh
  492.                         ---     ------
  493.     IETF chan 1 low-rate GSM audio        255     224
  494.     IETF chan 2 low-rate GSM audio        223     192
  495.     IETF chan 1 PCM audio            191     160
  496.     IETF chan 2 PCM audio            159     128
  497.     IETF chan 1 video            127      96
  498.     IETF chan 2 video             95      64
  499.     local event audio             63      32
  500.     local event video             31       1
  501.  
  502.     It is suggested that a threshold of 128 be used initially, and
  503.     then raise it to 160 or 192 only if the 64 Kb/s voice is excessive
  504.     (GSM voice is about 18 Kb/s), or lower it to 64 to allow video to
  505.     be transmitted to the tunnel.
  506.  
  507.     Mrouted will not initiate execution if it has fewer than two
  508.     enabled vifs, where a vif (virtual interface) is either a physical
  509.     multicast-capable interface or a tunnel.  It will log a warning if
  510.     all of its vifs are tunnels, based on the reasoning that such an
  511.     mrouted configuration would be better replaced by more direct
  512.     tunnels (i.e., eliminate the middle man).  However, to create a
  513.     hierarchical fanout for the MBONE, we will have mrouted
  514.     configurations that consist only of tunnels.
  515.  
  516.     Once you have edited the mrouted.conf file, you must run mrouted
  517.     as root.  See ipmulticast.README for more information.
  518.  
  519. * What hardware and software is required to receive audio?
  520.  
  521.     The platform we've been primarily using is the Sun SPARCstation,
  522.     but also the SGI Indigo.  You don't need any additional hardware
  523.     (assuming yours is new enough that it came with a microphone, else
  524.     you have to buy one).  The audio coding is provided by the
  525.     built-in 64 Kb/s audio hardware plus software compression for
  526.     reduced data rates (32 Kb/s ADPCM, 13 Kb/s GSM, and 4.8 Kb/s LPC).
  527.     The software for packet audio and video is available by anonymous
  528.     FTP.  In the future, we expect this or similar software to be
  529.     available for other platforms such as NeXT or Macintosh.  One key
  530.     requirement, however, is that the host machine have IP multicast
  531.     software added to its kernel.  You can add it now to SunOS 4.1.1
  532.     4.1.2, or 4.1.3; Sun includes it the standard kernel with Solaris
  533.     2.1 (though these programs may not yet run on Solaris).
  534.  
  535.     A pre-release of the LBL audio tool "vat" is available by
  536.     anonymous FTP from ftp.ee.lbl.gov in the file vat.tar.Z.  Included
  537.     are a binary suitable for use on any version of SPARCstation, and
  538.     a manual entry.  Also available are dec-vat.tar.Z for the DEC 5000
  539.     and sgi-vat.tar.Z for the SGI Indigo.  The authors, Van Jacobson
  540.     and Steve McCanne, say the source will be released "soon".  You
  541.     may find that the vat tar file includes a patch for the kernel
  542.     file in_pcb.c.  This has been superceded by a patch that is now
  543.     included in the IP multicast software release for SunOS.  These
  544.     patches allow demultiplexing of separate multicast addresses so
  545.     that multiple copies of vat can be run for different conferences
  546.     at the same time.
  547.  
  548.     In addition, a beta release of both binary and source for the
  549.     UMass audio tool NEVOT, written by Henning Schulzrinne, is
  550.     available by anonymous FTP from gaia.cs.umass.edu in the pub/nevot
  551.     directory (the filename may change from version to version).
  552.     NEVOT runs on the SPARCstation and on the SGI Indigo.
  553.  
  554.     You can test vat or NEVOT point-to-point between two hosts with a
  555.     standard SunOS kernel, but to conference with multiple sites you
  556.     will need a kernel with IP multicast support added.  IP multicast
  557.     invokes Ethernet multicast to reach hosts on the same subnet; to
  558.     link multiple subnets you can set up tunnels, assuming sufficient
  559.     bandwidth exists.
  560.  
  561.     Once you build the SunOS kernel, you should make sure that the
  562.     kernel audio buffer size variable is patched from the standard
  563.     value of 1024 to be 160 decimal to match the audio packet size for
  564.     minimum delay.  The IP multicast software release includes patched
  565.     versions of the audio driver modules, but if for some reason you
  566.     can't use them, you can use adb to patch the kernel as shown
  567.     below.  These instructions are for SunOS 4.1.1 and 4.1.2; change
  568.     the variable name to amd_bsize for 4.1.3, or Dbri_recv_bsize for
  569.     the SPARC 10:
  570.  
  571.     adb -k -w /vmunix /dev/mem
  572.     audio_79C30_bsize/W 0t160    (to patch the running kernel)
  573.     audio_79C30_bsize?W 0t160    (to patch kernel file on disk)
  574.     <Ctrl-D>
  575.  
  576.     If the buffer size is incorrect, there will be bad breakup when
  577.     sound from two sites gets mixed for playback.
  578.  
  579. * What hardware and software is required to receive video?
  580.  
  581.     No special hardware is required to receive the slow-frame-rate
  582.     video prevalent on the MBONE because the decoding and display is
  583.     done all in software.  The data rate is typically 25-150 Kb/s.  To
  584.     be able to send video requires a camera and a frame grabber.  Any
  585.     camcorder with a video output will do.  For monitor-top mounting,
  586.     the wide-angle range is most important.  There is also a small
  587.     (about 2x2x5 inches) monochrome CCD camera suitable for desktop
  588.     video conference applications available for around $200 from
  589.     Stanley Howard Associates, Thousand Oaks, CA, phone 805-492-4842.
  590.     Subjectively, it seems to give a picture somewhat less crisp than
  591.     a typical camcorder, but sufficient for 320x240 resolution
  592.     software video algorithms.  There are also color and infrared (for
  593.     low light, with IR LED illumination) models.  The programs listed
  594.     below use the Sun VideoPix card to input video on the SPARCstation.
  595.  
  596.     The video we used for the July 1992 IETF was the DVC (desktop
  597.     video conferencing) program from BBN, written by Paul Milazzo and
  598.     Bob Clements.  This program has since become a product, called
  599.     PictureWindow.  Contact picwin-sales@bbn.com for more information.
  600.  
  601.     For the November 1992 IETF and several events since then, we have
  602.     used two other programs.  The first is the "nv" (network video)
  603.     program from Ron Frederick at Xerox PARC, available from
  604.     parcftp.xerox.com in the file pub/net-research/nv.tar.Z.  An 8-bit
  605.     visual is recommended to see the full image resolution, but nv
  606.     also implements dithering of the image for display on 1-bit
  607.     visuals (monochrome displays).  Shared memory will be used if
  608.     present for reduced processor load, but display to remote X
  609.     servers is also possible.  On the SPARCstation, the VideoPix card
  610.     is required to originate video.  Sources are to available,
  611.     as are binary versions for the SGI Indigo and DEC 5000 platforms.
  612.  
  613.     Also available from INRIA is the IVS program written by Thierry
  614.     Turletti and Christian Huitema.  It uses a more sophisticated
  615.     compression algorithm, a software implementation of the H.261
  616.     standard.  It produces a lower data rate, but because of the
  617.     processing demands the frame rate is much lower and the delay
  618.     higher.  System requirements: SUN SPARCstation or SGI Indigo,
  619.     video grabber (VideoPix Card for SPARCstations), video camera,
  620.     X-Windows with Motif or Tk toolkit.  Binaries and sources are
  621.     available for anonymous ftp from avahi.inria.fr in the file
  622.     pub/videoconference/ivs.tar.Z or ivs_binary_sparc.tar.Z.
  623.  
  624. * How can I find out about teleconference events?
  625.  
  626.     Many of the audio and video transmissions over the MBONE are
  627.     advertised in "sd", the session directory tool developed by
  628.     Van Jacobson at LBL.  Session creators specify all the address
  629.     parameters necessary to join the session, then sd multicasts the
  630.     advertisement to be picked up by anyone else running sd.  The
  631.     audio and video programs can be invoked with the right parameters
  632.     by clicking a button in sd.  From ftp.ee.lbl.gov, get the file
  633.     sd.tar.Z or sgi-sd.tar.Z or dec-sd.tar.Z.
  634.  
  635.     Schedules for IETF audio/videocasts and some other events are
  636.     announced on the IETF mailing list (send a message to
  637.     ietf-request@cnri.reston.va.us to join).  Some events are also
  638.     announced on the rem-conf mailing list, along with discussions of
  639.     protocols for remote conferencing (send a message to
  640.     rem-conf-request@es.net to join).
  641.  
  642. * Have there been any movements towards productizing any of this?
  643.  
  644.     The network infrastructure will require resource management
  645.     mechanisms to provide low delay service to real-time applications
  646.     on any significant scale.  That will take a few years.  Until that
  647.     time, product-level robustness won't be possible.  However,
  648.     vendors are certainly interested in these applications, and
  649.     products may be targeted initially to LAN operation.
  650.  
  651.     IP multicast host extensions are being added to some vendors'
  652.     operating systems.  That's one of the first steps.  Proteon has
  653.     announced IP multicast support in their routers.  No network
  654.     provider is offering production IP multicast service yet.
  655.  
  656. ======================================================================
  657.