home *** CD-ROM | disk | FTP | other *** search
/ Unix System Administration Handbook 1997 October / usah_oct97.iso / rfc / 1100s / rfc1152.txt < prev    next >
Text File  |  1990-04-05  |  63KB  |  1,291 lines

  1.  
  2.  
  3.  
  4.  
  5.  
  6.  
  7. Network Working Group                                       C. Partridge
  8. Request for Comments: 1152                  BBN Systems and Technologies
  9.                                                               April 1990
  10.  
  11.  
  12.                             Workshop Report
  13.               Internet Research Steering Group Workshop on
  14.                         Very-High-Speed Networks
  15.  
  16. Status of this Memo
  17.  
  18.    This memo is a report on a workshop sponsored by the Internet
  19.    Research Steering Group.  This memo is for information only.  This
  20.    RFC does not specify an Internet standard.  Distribution of this memo
  21.    is unlimited.
  22.  
  23. Introduction
  24.  
  25.    The goal of the workshop was to gather together a small number of
  26.    leading researchers on high-speed networks in an environment
  27.    conducive to lively thinking.  The hope is that by having such a
  28.    workshop the IRSG has helped to stimulate new or improved research in
  29.    the area of high-speed networks.
  30.  
  31.    Attendance at the workshop was limited to fifty people, and attendees
  32.    had to apply to get in.  Applications were reviewed by a program
  33.    committee, which accepted about half of them.  A few key individuals
  34.    were invited directly by the program committee, without application.
  35.    The workshop was organized by Dave Clark and Craig Partridge.
  36.  
  37.    This workshop report is derived from session writeups by each of the
  38.    session chairman, which were then reviewed by the workshop
  39.    participants.
  40.  
  41. Session 1: Protocol Implementation (David D. Clark, Chair)
  42.  
  43.    This session was concerned with what changes might be required in
  44.    protocols in order to achieve very high-speed operation.
  45.  
  46.    The session was introduced by David Clark (MIT LCS), who claimed that
  47.    existing protocols would be sufficient to go at a gigabit per second,
  48.    if that were the only goal.  In fact, proposals for high-speed
  49.    networks usually include other requirements as well, such as going
  50.    long distances, supporting many users, supporting new services such
  51.    as reserved bandwidth, and so on.  Only by examining the detailed
  52.    requirements can one understand and compare various proposals for
  53.    protocols.  A variety of techniques have been proposed to permit
  54.    protocols to operate at high speeds, ranging from clever
  55.  
  56.  
  57.  
  58. Partridge                                                       [Page 1]
  59.  
  60. RFC 1152                  IRSG Workshop Report                April 1990
  61.  
  62.  
  63.    implementation to complete relayering of function.  Clark asserted
  64.    that currently even the basic problem to be solved is not clear, let
  65.    alone the proper approach to the solution.
  66.  
  67.    Mats Bjorkman (Uppsala University) described a project that involved
  68.    the use of an outboard protocol processor to support high-speed
  69.    operation.  He asserted that his approach would permit accelerated
  70.    processing of steady-state sequences of packets.  Van Jacobson (LBL)
  71.    reported results that suggest that existing protocols can operate at
  72.    high speeds without the need for outboard processors.  He also argued
  73.    that resource reservation can be integrated into a connectionless
  74.    protocol such as IP without losing the essence of the connectionless
  75.    architecture.  This is in contrast to a more commonly held belief
  76.    that full connection setup will be necessary in order to support
  77.    resource reservation.  Jacobson said that he has an experimental IP
  78.    gateway that supports resource reservation for specific packet
  79.    sequences today.
  80.  
  81.    Dave Borman (Cray Research) described high-speed execution of TCP on
  82.    a Cray, where the overhead is most probably the system and I/O
  83.    architecture rather than the protocol.  He believes that protocols
  84.    such as TCP would be suitable for high-speed operation if the windows
  85.    and sequence spaces were large enough. He reported that the current
  86.    speed of a TCP transfer between the processors of a Cray Y-MP was
  87.    over 500 Mbps.  Jon Crowcroft (University College London) described
  88.    the current network projects at UCL.  He offered a speculation that
  89.    congestion could be managed in very high-speed networks by returning
  90.    to the sender any packets for which transmission capacity was not
  91.    available.
  92.  
  93.    Dave Feldmeier (Bellcore) reported on the Bellcore participation in
  94.    the Aurora project, a joint experiment of Bellcore, IBM, MIT, and
  95.    UPenn, which has the goal of installing and evaluating two sorts of
  96.    switches at gigabit speeds between those four sites.  Bellcore is
  97.    interested in switch and protocol design, and Feldmeier and his group
  98.    are designing and implementing a 1 Gbps transport protocol and
  99.    network interface.  The protocol processor will have special support
  100.    for such things as forward error correction to deal with ATM cell
  101.    loss in VLSI; a new FEC code and chip design have been developed to
  102.    run at 1 Gbps.
  103.  
  104.    Because of the large number of speakers, there was no general
  105.    discussion after this session.
  106.  
  107.  
  108.  
  109.  
  110.  
  111.  
  112.  
  113.  
  114. Partridge                                                       [Page 2]
  115.  
  116. RFC 1152                  IRSG Workshop Report                April 1990
  117.  
  118.  
  119. Session 2: High-Speed Applications (Keith Lantz, Chair)
  120.  
  121.    This session focused on applications and the requirements they impose
  122.    on the underlying networks.  Keith Lantz (Olivetti Research
  123.    California) opened by introducing the concept of the portable office
  124.    - a world where a user is able to take her work with her wherever she
  125.    goes.  In such an office a worker can access the same services and
  126.    the same people regardless of whether she is in the same building
  127.    with those services and people, at home, or at a distant site (such
  128.    as a hotel) - or whether she is equipped with a highly portable,
  129.    multi-media workstation, which she can literally carry with her
  130.    wherever she goes.  Thus, portable should be interpreted as referring
  131.    to portability of access to services rather than to portability of
  132.    hardware.  Although not coordinated in advance, each of the
  133.    presentations in this session can be viewed as a perspective on the
  134.    portable office.
  135.  
  136.    The bulk of Lantz's talk focused on desktop teleconferencing - the
  137.    integration of traditional audio/video teleconferencing technologies
  138.    with workstation-based network computing so as to enable
  139.    geographically distributed individuals to collaborate, in real time,
  140.    using multiple media (in particular, text, graphics, facsimile,
  141.    audio, and video) and all available computer-based tools, from their
  142.    respective locales (i.e., office, home, or hotel).  Such a facility
  143.    places severe requirements on the underlying network.  Specifically,
  144.    it requires support for several data streams with widely varying
  145.    bandwidths (from a few Kbps to 1 Gbps) but generally low delay, some
  146.    with minimal jitter (i.e., isochronous), and all synchronized with
  147.    each other (i.e., multi-channel or media synchronization).  It
  148.    appears that high-speed network researchers are paying insufficient
  149.    attention to the last point, in particular.  For example, the bulk of
  150.    the research on ATM has assumed that channels have independent
  151.    connection request and burst statistics; this is clearly not the case
  152.    in the context of desktop teleconferencing.
  153.  
  154.    Lantz also stressed the need for adaptive protocols, to accommodate
  155.    situations where the capacity of the network is exceeded, or where it
  156.    is necessary to interoperate with low-speed networks, or where human
  157.    factors suggest that the quality of service should change (e.g.,
  158.    increasing or decreasing the resolution of a video image).  Employing
  159.    adaptive protocols suggests, first, that the interface to the network
  160.    protocols must be hardware-independent and based only on quality of
  161.    service.  Second, a variety of code conversion services should be
  162.    available, for example, to convert from one audio encoding scheme to
  163.    another.  Promising examples of adaptive protocols in the video
  164.    domain include variable-rate constant-quality coding, layered or
  165.    embedded coding, progressive transmission, and (most recently, at
  166.    UC-Berkeley) the extension of the concepts of structured graphics to
  167.  
  168.  
  169.  
  170. Partridge                                                       [Page 3]
  171.  
  172. RFC 1152                  IRSG Workshop Report                April 1990
  173.  
  174.  
  175.    video, such that the component elements of the video image are kept
  176.    logically separate throughout the production-to-presentation cycle.
  177.  
  178.    Charlie Catlett (National Center for Supercomputing Applications)
  179.    continued by analyzing a specific scientific application, simulation
  180.    of a thunderstorm, with respect to its network requirements.  The
  181.    application was analyzed from the standpoint of identifying data flow
  182.    and the interrelationships between the computational algorithms, the
  183.    supercomputer CPU throughput, the nature and size of the data set,
  184.    and the available network services (throughput, delay, etc).
  185.  
  186.    Simulation and the visualization of results typically involves
  187.    several steps:
  188.  
  189.       1.  Simulation
  190.  
  191.       2.  Tessellation (transform simulation data into three-dimensional
  192.           geometric volume descriptions, or polygons)
  193.  
  194.       3.  Rendering (transform polygons into raster image)
  195.  
  196.    For the thunderstorm simulation, the simulation and tessellation are
  197.    currently done using a Cray supercomputer and the resulting polygons
  198.    are sent to a Silicon Graphics workstation to be rendered and
  199.    displayed.  The simulation creates data at a rate of between 32 and
  200.    128 Mbps (depending on the number of Cray-2 processors working on the
  201.    simulation) and the tessellation output data rate is in typically in
  202.    the range of 10 to 100 Mbps, varying with the complexity of the
  203.    visualization techniques.  The SGI workstation can display 100,000
  204.    polygons/sec which for this example translates to up to 10
  205.    frames/sec.  Analysis tools such as tracer particles and two-
  206.    dimensional slices are used interactively at the workstation with
  207.    pre-calculated polygon sets.
  208.  
  209.    In the next two to three years, supercomputer speeds of 10-30 GFLOPS
  210.    and workstation speeds of up to 1 GFLOPS and 1 million
  211.    polygons/second display are projected to be available.  Increased
  212.    supercomputer power will yield a simulation data creation rate of up
  213.    to several Gbps for this application.  The increased workstation
  214.    power will allow both tessellation and rendering to be done at the
  215.    workstation.  The use of shared window systems will allow multiple
  216.    researchers on the network to collaborate on a simulation, with the
  217.    possibility of each scientist using his or her own visualization
  218.    techniques with the tessellation process running on his or her
  219.    workstation.  Further developments, such as network virtual memory,
  220.    will allow the tessellation processes on the workstations to access
  221.    variables directly in supercomputer memory.
  222.  
  223.  
  224.  
  225.  
  226. Partridge                                                       [Page 4]
  227.  
  228. RFC 1152                  IRSG Workshop Report                April 1990
  229.  
  230.  
  231.    Terry Crowley (BBN Systems and Technologies) continued the theme of
  232.    collaboration, in the context of real-time video and audio, shared
  233.    multimedia workspaces, multimedia and video mail, distributed file
  234.    systems, scientific visualization, network access to video and image
  235.    information, transaction processing systems, and transferring data
  236.    and computational results between workstations and supercomputers.
  237.    In general, such applications could help groups collaborate by
  238.    directly providing communication channels (real-time video, shared
  239.    multimedia workspaces), by improving and expanding on the kinds of
  240.    information that can be shared (multimedia and video mail,
  241.    supercomputer data and results), and by reducing replication and the
  242.    complexity of sharing (distributed file systems, network access to
  243.    video and image information).
  244.  
  245.    Actual usage patterns for these applications are hard to predict in
  246.    advance.  For example, real-time video might be used for group
  247.    conferencing, for video phone calls, for walking down the hall, or
  248.    for providing a long-term shared viewport between remote locations in
  249.    order to help establish community ties.  Two characteristics of
  250.    network traffic that we can expect are the need to provide multiple
  251.    data streams to the end user and the need to synchronize these
  252.    streams.  These data streams will include real-time video, access to
  253.    stored video, shared multimedia workspaces, and access to other
  254.    multimedia data.  A presentation involving multiple data streams must
  255.    be synchronized in order to maintain cross-references between them
  256.    (e.g., pointing actions within the shared multimedia workspace that
  257.    are combined with a voice request to delete this and save that).
  258.    While much traffic will be point-to-point, a significant amount of
  259.    traffic will involve conferences between multiple sites.  A protocol
  260.    providing a multicast capability is critical.
  261.  
  262.    Finally, Greg Watson (HP) presented an overview of ongoing work at
  263.    the Hewlett-Packard Bristol lab.  Their belief is that, while
  264.    applications for high-speed networks employing supercomputers are the
  265.    the technology drivers, the economic drivers will be applications
  266.    requiring moderate bandwidth (say 10 Mbps) that are used by everyone
  267.    on the network.
  268.  
  269.    They are investigating how multimedia workstations can assist
  270.    distributed research teams - small teams of people who are
  271.    geographically dispersed and who need to work closely on some area of
  272.    research.  Each workstation provides multiple video channels,
  273.    together with some distributed applications running on personal
  274.    computers.  The bandwidth requirements per workstation are about 40
  275.    Mbps, assuming a certain degree of compression of the video channels.
  276.    Currently the video is distributed as an analog signal over CATV
  277.    equipment.  Ideally it would all be carried over a single, unified
  278.    wide-area network operating in the one-to-several Gbps range.
  279.  
  280.  
  281.  
  282. Partridge                                                       [Page 5]
  283.  
  284. RFC 1152                  IRSG Workshop Report                April 1990
  285.  
  286.  
  287.    They have constructed a gigabit network prototype and are currently
  288.    experimenting with uncompressed video carried over the same network
  289.    as normal data traffic.
  290.  
  291. Session 3: Lightwave Technology and its Implications (Ira Richer, Chair)
  292.  
  293.    Bob Kennedy (MIT) opened the session with a talk on network design in
  294.    an era of excess bandwidth.  Kennedy's research is focused on multi-
  295.    purpose networks in which bandwidth is not a scarce commodity,
  296.    networks with bandwidths of tens of terahertz.  Kennedy points out
  297.    that a key challenge in such networks is that electronics cannot keep
  298.    up with fiber speeds.  He proposes that we consider all-optical
  299.    networks (in which all signals are optical) with optoelectronic nodes
  300.    or gateways capable of recognizing and capturing only traffic
  301.    destined for them, using time, frequency, or code divisions of the
  302.    huge bandwidth.  The routing algorithms in such networks would be
  303.    extremely simple to avoid having to convert fiber-optics into slower
  304.    electronic pathways to do switching.
  305.  
  306.    Rich Gitlin (AT&T Bell Labs) gave a talk on issues and opportunities
  307.    in broadband telecommunications networks, with emphasis on the role
  308.    of fiber optic and photonic technology.  A three-level architecture
  309.    for a broadband telecommunications network was presented.  The
  310.    network is B-ISDN/ATM 150 (Mbps) based and consists of: customer
  311.    premises equipment (PBXs, LANs, multimedia terminals) that access the
  312.    network via a router/gateway, a Network Node (which is a high
  313.    performance ATM packet switch) that serves both as a LAN-to-LAN
  314.    interconnect and as a packet concentrator for traffic destined for
  315.    CPE attached to other Network Nodes, and a backbone layer that
  316.    interconnects the NODES via a Digital Cross-Connect System that
  317.    provide reconfigurable SONET circuits between the NODES (the use of
  318.    circuits minizes delay and avoids the need for implementation of
  319.    peak-transmission-rate packet switching).  Within this framework, the
  320.    most likely places for near-term application of photonics, apart from
  321.    pure transport (ie, 150 Mbps channels in a 2.4 Gbps SONET system),
  322.    are in the Cross-Connect (a Wavelength Division Multiplexed based
  323.    structure was described) and in next-generation LANs that provide
  324.    Gigabit per second throughputs by use of multiple fibers, concurrent
  325.    transmission, and new access mechanisms (such as store and forward).
  326.  
  327.    A planned interlocation Bell Labs multimedia gigabit/sec research
  328.    network, LuckyNet, was described that attempts to extend many of the
  329.    above concepts to achieve its principal goals: provision of a gigabit
  330.    per second capability to a heterogeneous user community, the
  331.    stimulation of applications that require Gpbs throughput (initial
  332.    applications are video conferencing and LAN interconnect), and, to
  333.    the extent possible, be based on standards so that interconnection
  334.    with other Gigabit testbeds is possible.
  335.  
  336.  
  337.  
  338. Partridge                                                       [Page 6]
  339.  
  340. RFC 1152                  IRSG Workshop Report                April 1990
  341.  
  342.  
  343. Session 4: High Speed Networks and the Phone System
  344.            (David Tennenhouse, Chair)
  345.  
  346.    David Tennenhouse (MIT) reported on the ATM workshop he hosted the
  347.    two days previous to this workshop.  His report will appear as part
  348.    of the proceedings of his workshop.
  349.  
  350.    Wally St. John (LANL) followed with a presentation on the Los Alamos
  351.    gigabit testbed.  This testbed is based on the High Performance
  352.    Parallel Interface (HPPI) and on crossbar switch technology.  LANL
  353.    has designed its own 16x16 crossbar switch and has also evaluated the
  354.    Network Systems 8x8 crossbar switch. Future plans for the network
  355.    include expansion to the CASA gigabit testbed.  The remote sites (San
  356.    Diego Supercomputer Center, Caltech, and JPL) are configured
  357.    similarly to the LANL testbed.  The long-haul interface is from HPPI
  358.    to/from SONET (using ATM if in time).
  359.  
  360.    Wally also discussed some of the problems related to building a
  361.    HPPI-SONET gateway:
  362.  
  363.       a)  Flow control.  The HPPI, by itself, is only readily extensible
  364.           to 64 km because of the READY-type flow control used in the
  365.           physical layer.  The gateway will need to incorporate larger
  366.           buffers and independent flow control.
  367.  
  368.       b)  Error-rate expectations.  SONET is only specified to have a
  369.           1E-10 BER on a per hop basis.  This is inadequate for long
  370.           links.  Those in the know say that SONET will be much better
  371.           but the designer is faced with the poor BER in the SONET spec.
  372.  
  373.       c)  Frame mapping.  There are several interesting issues to be
  374.           considered in finding a good mapping from the HPPI packet
  375.           to the SONET frame.  Some are what SONET STS levels will be
  376.           available in what time frame, the availability of concatenated
  377.           service, and the error rate issue.
  378.  
  379.    Dan Helman (UCSC) talked about work he has been doing with Darrell
  380.    Long to examine the interconnection of Internet networks via an ATM
  381.    B-ISDN network.  Since network interfaces and packet processing are
  382.    the expensive parts of high-speed networks, they believe it doesn't
  383.    make sense to use the ATM backbone only for transmission; it should
  384.    be used for switching as well.  Therefore gateways (either shared by
  385.    a subnet or integrated with fast hosts) are needed to encapsulate or
  386.    convert conventional protocols to ATM format.  Gateways will be
  387.    responsible for caching connections to recently accessed
  388.    destinations.  Since many short-lived low-bandwidth connections as
  389.    foreseen (e.g., for mail and ftp), routing in the ATM network (to set
  390.    up connections) should not be complicated - a form of static routing
  391.  
  392.  
  393.  
  394. Partridge                                                       [Page 7]
  395.  
  396. RFC 1152                  IRSG Workshop Report                April 1990
  397.  
  398.  
  399.    should be adequate.  Connection performance can be monitored by the
  400.    gateways.  Connections are reestablished if unacceptable.  All
  401.    decision making can be done by gateways and route servers at low
  402.    packet rates, rather than the high aggregate rate of the ATM network.
  403.    One complicated issue to be addressed is how to transparently
  404.    introduce an ATM backbone alongside the existing Internet.
  405.  
  406. Session 5: Distributed Systems (David Farber, Chair)
  407.  
  408.    Craig Partridge (BBN Systems and Technologies) started this session
  409.    by arguing that classic RPC does not scale well to gigabit-speed
  410.    networks.  The gist of his argument was that machines are getting
  411.    faster and faster, while the round-trip delay of networks is staying
  412.    relatively constant because we cannot send faster than the speed of
  413.    light.  As a result, the effective cost of doing a simple RPC,
  414.    measured in instruction cycles spent waiting at the sending machine,
  415.    will become extremely high (millions of instruction cycles spent
  416.    waiting for the reply to an RPC).  Furthermore, the methods currently
  417.    used to improve RPC performance, such as futures and parallel RPC, do
  418.    not adequately solve this problem.  Future requests will have to be
  419.    made much much earlier if they are to complete by the time they are
  420.    needed.  Parallel RPC allows multiple threads, but doesn't solve the
  421.    fact that each individual sequence of RPCs still takes a very long
  422.    time.
  423.  
  424.    Craig went on to suggest that there are at least two possible ways
  425.    out of the problem.  One approach is to try to do a lot of caching
  426.    (to waste bandwidth to keep the CPU fed).  A limitation of this
  427.    approach is that at some point the cache becomes so big that you have
  428.    to keep in consistent with other systems' caches, and you suddenly
  429.    find yourself doing synchronization RPCs to avoid doing normal RPCs
  430.    (oops!).  A more promising approach is to try to consolidate RPCs
  431.    being sent to the same machine into larger operations which can be
  432.    sent as a single transaction, run on the remote machine, and the
  433.    result returned.  (Craig noted that he is pursuing this approach in
  434.    his doctoral dissertation at Harvard).
  435.  
  436.    Ken Schroder (BBN Systems and Technologies) gave a talk on the
  437.    challenges of combining gigabit networks with wide-area heterogeneous
  438.    distributed operating systems.  Ken feels the key goals of wide area
  439.    distributed systems will be to support large volume data transfers
  440.    between users of conferencing and similar applications, and to
  441.    deliver information to a large number of end users sharing services
  442.    such as satellite image databases.  These distributed systems will be
  443.    motivated by the natural distribution of users, of information and of
  444.    expensive special purpose computer resources.
  445.  
  446.    Ken pointed to three of the key problems that must be addressed at
  447.  
  448.  
  449.  
  450. Partridge                                                       [Page 8]
  451.  
  452. RFC 1152                  IRSG Workshop Report                April 1990
  453.  
  454.  
  455.    the system level in these environments: how to provide high
  456.    utilization; how to manage consistency and synchronization in the
  457.    presence of concurrency and non-determinism; and how to construct
  458.    scalable system and application services.  Utilization is key only to
  459.    high performance applications, where current systems would be limited
  460.    by the cost of factors such as repeatedly copying messages,
  461.    converting data representations and switching between application and
  462.    operating system.  Concurrency can be used improve performance, but
  463.    is also likely to occur in many programs inadvertently because of
  464.    distribution.  Techniques are required both to exploit concurrency
  465.    when it is needed, and to limit it when non-determinism can lead to
  466.    incorrect results.  Extensive research on ensuring consistency and
  467.    resolving resource conflicts has been done in the database area,
  468.    however distributed scheduling and the need for high availability
  469.    despite partial system failures introduce special problems that
  470.    require additional research.  Service scalability will be required to
  471.    support customer needs as the size of the user community grow.  It
  472.    will require attention both ensuring that components do not break
  473.    when they are subdivided across additional processors to support a
  474.    larger user population, and to ensure that performance does to each
  475.    user can be affordably maintained as new users are added.
  476.  
  477.    In a bold presentation, Dave Cheriton (Stanford) made a sweeping
  478.    argument that we are making a false dichotomy between distributed
  479.    operating systems and networks.  In a gigabit world, he argued, the
  480.    major resource in the system is the network, and in a normal
  481.    operating system we would expect such a critical resource to be
  482.    managed by the operating system.  Or, put another way, the gigabit
  483.    network distributed operating system should manage the network.
  484.    Cheriton went on to say that if a gigabit distributed operating
  485.    system is managing the network, then it is perfectly reasonable to
  486.    make the network very dumb (but fast) and put the system intelligence
  487.    in the operating systems on the hosts that form the distributed
  488.    system.
  489.  
  490.    In another talk on interprocess communication, Jonathan Smith (UPenn)
  491.    again raised the problem of network delay limiting RPC performance.
  492.    In contrast to Partridge's earlier talk, Smith argued that the
  493.    appropriate approach is anticipation or caching.  He justified his
  494.    argument with a simple cost example.  If a system is doing a page
  495.    fetch between two systems which have a five millisecond round-trip
  496.    network delay between them, the cost of fetching n pages is:
  497.  
  498.                          5 msec + (n-1) * 32 usec
  499.  
  500.    Thus the cost of fetching an additional page is only 32 usec, but
  501.    underfetching and having to make another request to get a page you
  502.    missed costs 5000 usec.  Based on these arguments, Smith suggested
  503.  
  504.  
  505.  
  506. Partridge                                                       [Page 9]
  507.  
  508. RFC 1152                  IRSG Workshop Report                April 1990
  509.  
  510.  
  511.    that we re-examine work in virtual memory to see if there are
  512.    comfortable ways to support distributed virtual memory with
  513.    anticipation.
  514.  
  515.    In the third talk on RPC in the session, Tommy Joseph (Olivetti), for
  516.    reasons similar to those of Partridge and Smith, argued that we have
  517.    to get rid of RPC and give programmers alternative programming
  518.    paradigms.  He sketched out ideas for asynchronous paradigms using
  519.    causal consistency, in which systems ensure that operations happen in
  520.    the proper order, without synchronizing through a single system.
  521.  
  522. Session 6: Hosts and Host Interfaces (Gary Delp, Chair)
  523.  
  524.    Gary Delp (IBM Research) discussed several issues involved in the
  525.    increase in speed of network attachment to hosts of increasing
  526.    performance.  These issues included:
  527.  
  528.       -  Media Access - There are aspects of media access that are
  529.          best handled by dedicated silicon, but there are also aspects
  530.          that are best left to a general-purpose processor.
  531.  
  532.       -  Compression - Some forms of compression/expansion may belong
  533.          on the network interface; most will be application-specific.
  534.  
  535.       -  Forward Error Correction - The predicted major packet loss
  536.          mode is packet drops due to internal network congestion, rather
  537.          than bit errors, so forward error correction internal to a
  538.          packet may not be useful.  On the other hand, the latency cost
  539.          of not being able to recover from bit errors is very high.
  540.          Some proposals were discussed which suggest that FEC among
  541.          packet groups, with dedicated hardware support, is the way
  542.          to go.
  543.  
  544.       -  Encryption/Decryption - This is a computationally intensive
  545.          task.  Most agree that if it is done with all traffic, some
  546.          form of hardware support is helpful.  Where does it fit in the
  547.          protocol stack?
  548.  
  549.       -  Application Memory Mapping - How much of the host memory
  550.          structure should be exposed to the network interface?
  551.          Virtual memory and paging complicate this issue considerably.
  552.  
  553.       -  Communication with Other Channel Controllers - Opinions were
  554.          expressed that ranged from absolutely passive network
  555.          interfaces to interfaces that run major portions of the
  556.          operating system and bus arbitration codes.
  557.  
  558.       -  Blocking/Segmentation - The consensus is that B/S should
  559.  
  560.  
  561.  
  562. Partridge                                                      [Page 10]
  563.  
  564. RFC 1152                  IRSG Workshop Report                April 1990
  565.  
  566.  
  567.          occur wherever the transport layer is processed.
  568.  
  569.       -  Routing - This is related to communications with other
  570.          controllers.  A routing-capable interface can reduce the bus
  571.          requirements by a factor of two.
  572.  
  573.       -  Intelligent participation in the host structure as a gateway,
  574.          router, or bridge.
  575.  
  576.       -  Presentation Layer issues - All of the other overheads can be
  577.          completely overshadowed by this issue if it is not solved well
  578.          and integrated into the overall host architecture.  This points
  579.          out the need for some standardization of representation (IEEE
  580.          floating point, etc.)
  581.  
  582.    Eric Cooper (CMU) summarized some initial experience with Nectar, a
  583.    high-speed fiber-optic LAN that has been built at Carnegie Mellon.
  584.    Nectar consists of an arbitrary mesh of crossbar switches connected
  585.    by means of 100 Mbps fiber-optic links.  Hosts are connected to
  586.    crossbar switches via communication processor boards called CABs.
  587.    The CAB presents a memory-mapped interface to user processes and
  588.    off-loads all protocol processing from the host.
  589.  
  590.    Preliminary performance figures show that latency is currently
  591.    limited by the number of VME operations required by the host-to-CAB
  592.    shared memory interface in the course of sending and receiving a
  593.    message.  The bottleneck in throughput is the speed of the VME
  594.    interface: although processes running on the CABs can communicate
  595.    over Nectar at 70 Mbps, processes on the hosts are limited to
  596.    approximately 25 Mbps.
  597.  
  598.    Jeff Mogul (DEC Western Research Lab) made these observations:
  599.    Although off-board protocol processors have been a popular means to
  600.    connect a CPU to a network, they will be less useful in the future.
  601.    In the hypothetical workstation of the late 1990s, with a 1000-MIPS
  602.    CPU and a Gbps LAN, an off-board protocol processor will be of no
  603.    use.  The bottleneck will not be the computation required to
  604.    implement the protocol, but the cost of moving the packet data into
  605.    the CPU's cache and the cost of notifying the user process that the
  606.    data is available.  It will take far longer (hundreds of instruction
  607.    cycles) to perform just the first cache miss (required to get the
  608.    packet into the cache) than to perform all of the instructions
  609.    necessary to implement IP and TCP (perhaps a hundred instructions).
  610.  
  611.    A high-speed network interface for a reasonably-priced system must be
  612.    designed with this cost structure in mind; it should also eliminate
  613.    as many CPU interrupts as possible, since interrupts are also very
  614.    expensive.  It makes more sense to let a user process busy-wait on a
  615.  
  616.  
  617.  
  618. Partridge                                                      [Page 11]
  619.  
  620. RFC 1152                  IRSG Workshop Report                April 1990
  621.  
  622.  
  623.    network-interface flag register than to suspend it and then take an
  624.    interrupt; the normal CPU scheduling mechanism is more efficient than
  625.    interrupts if the network interactions are rapid.
  626.  
  627.    David Greaves (Olivetti Research Ltd.) briefly described the need for
  628.    a total functionality interface architecture that would allow the
  629.    complete elimination of communication interrupts.  He described the
  630.    Cambridge high-speed ring as an ATM cell-like interconnect that
  631.    currently runs at 500-1000 MBaud, and claims that ATM at that speed
  632.    is a done deal.   Dave Tennenhouse also commented that ATM at high
  633.    speeds with parallel processors is not the difficult thing that
  634.    several others have been claiming.
  635.  
  636.    Bob Beach (Ultra Technologies) started his talk with the observation
  637.    that networking could be really fast if only we could just get rid of
  638.    the hosts.   He then supported his argument with illustrations of
  639.    80-MByte/second transfers to frame buffers from Crays that drop to
  640.    half that speed when the transfer is host-to-host.  Using null
  641.    network layers and proprietary MAC layers, the Ultra Net system can
  642.    communicate application-to-application with ISO TP4 as the transport
  643.    layer at impressive rates of speed.  The key to high-speed host
  644.    interconnects has been found to be both large packets and large (on
  645.    the order of one megabyte) channel transfer requests.  Direct DMA
  646.    interfaces exhibit much smaller transfer latencies.
  647.  
  648.    Derek McAuley (University Cambridge Computer Laboratory) described
  649.    work of the Fairisle project which is producing an ATM network based
  650.    on fast packet switches.  A RISC processor (12 MIPS) is used in the
  651.    host interface to do segmentation/reassembly/demultiplexing.  Line
  652.    rates of up to 150 Mbps are possible even with this modest processor.
  653.    Derek has promised that performance and requirement results from this
  654.    system will be published in the spring.
  655.  
  656.    Bryan Lyles (XEROX PARC) volunteered to give an abbreviated talk in
  657.    exchange for discussion rights.  He reported that Xerox PARC is
  658.    interested in ATM technology and wants to install an ATM LAN at the
  659.    earliest possible opportunity.  Uses will include such applications
  660.    as video where guaranteed quality of service (QOS) is required.  ATM
  661.    technology and the desire for guaranteed QOS places a number of new
  662.    constraints on the host interface.  In particular, they believe that
  663.    they will be forced towards rate-based congestion control.  Because
  664.    of implementation issues and burst control in the ATM switches, the
  665.    senders will be forced to do rate based control on a cell-by-cell
  666.    basis.
  667.  
  668.    Don Tolmie (Los Alamos National Laboratory) described the High-
  669.    Performance Parallel Interface (HPPI) of ANSI task group X3T9.3.  The
  670.    HPPI is a standardized basic building block for implementing, or
  671.  
  672.  
  673.  
  674. Partridge                                                      [Page 12]
  675.  
  676. RFC 1152                  IRSG Workshop Report                April 1990
  677.  
  678.  
  679.    connecting to, networks at the Gbps speeds, be they ring, hub,
  680.    cross-bar, or long-haul based.  The HPPI physical layer operates at
  681.    800 or 1600 Mbps over 25-meter twisted-pair copper cables in a
  682.    point-to-point configuration.  The HPPI physical layer has almost
  683.    completed the standards process, and a companion HPPI data framing
  684.    standard is under way, and a Fiber Channel standard at comparable
  685.    speeds is also being developed.  Major companies have completed, or
  686.    are working on, HPPI interfaces for supercomputers, high-end
  687.    workstations, fiber-optic extenders, and networking components.
  688.  
  689.    The discussion at the end of the session covered a range of topics.
  690.    The appropriateness of outboard protocol processing was questioned.
  691.    Several people agreed that outboarding on a Cray (or similar
  692.    cost/performance) machines makes economic sense.  Van Jacobson
  693.    contended that for workstations, a simple memory-mapped network
  694.    interface that provides packets visible to the host processor may
  695.    well be the ideal solution.
  696.  
  697.    Bryan Lyles reiterated several of his earlier points, asserting that
  698.    when we talk about host interfaces and how to build them we should
  699.    remember that we are really talking about process-to-process
  700.    communication, not CPU-to-CPU communication.  Not all processes run
  701.    on the central CPU, e.g., graphics processors and multimedia.
  702.    Outboard protocol processing may be a much better choice for these
  703.    architectures.
  704.  
  705.    This is especially true when we consider that memory/bus bandwidth is
  706.    often a bottleneck.  When our systems run out of bandwidth, we are
  707.    forced towards a NUMA model and multiple buses to localize memory
  708.    traffic.
  709.  
  710.    Because of QOS issues, the receiver must be able to tell the sender
  711.    how fast it can send.  Throwing away cells (packets) will not work
  712.    because unwanted packets will still clog the receiver's switch
  713.    interface, host interface, and requires processing to throw away.
  714.  
  715. Session 7: Congestion Control (Scott Shenker, Chair)
  716.  
  717.    The congestion control session had six talks.  The first two talks
  718.    were rather general, discussing new approaches and old myths.  The
  719.    other four talks discussed specific results on various aspects of
  720.    packet (or cell) dropping: how to avoid drops, how to mitigate their
  721.    impact on certain applications, a calculation of the end-to-end
  722.    throughput in the presence of drops, and how rate-based flow control
  723.    can reduce buffer usage.  Thumbnail sketches of the talks follow.
  724.  
  725.    In the first of the general talks, Scott Shenker (XEROX PARC)
  726.    discussed how ideas from economics can be applied to congestion
  727.  
  728.  
  729.  
  730. Partridge                                                      [Page 13]
  731.  
  732. RFC 1152                  IRSG Workshop Report                April 1990
  733.  
  734.  
  735.    control.  Using economics, one can articulate questions about the
  736.    goals of congestion control, the minimal feedback necessary to
  737.    achieve those goals, and the incentive structure of congestion
  738.    control.  Raj Jain (DEC) then discussed eight myths related to
  739.    congestion control in high-speed networks.  Among other points, Raj
  740.    argued that (1) congestion problems will not become less important
  741.    when memory, processors, and links become very fast and cheap, (2)
  742.    window flow control is required along with rate flow control, and (3)
  743.    source-based controls are required along with router-based control.
  744.  
  745.    In the first of the more specific talks, Isidro Castineyra (BBN
  746.    Communications Corporation) presented a back-of-the-envelope
  747.    calculation on the effect of cell drops on end-to-end throughput.
  748.    While at extremely low drop rates the retransmission strategies of
  749.    go-back-n and selective retransmission produced similar end-to-end
  750.    throughput, at higher drop rates selective retransmission achieved
  751.    much higher throughput.  Next, Tony DeSimone (AT&T) told us why
  752.    high-speed networks are not just fast low-speed networks.   If the
  753.    buffer/window ratio is fixed, the drop rate decreases as the network
  754.    speed increases.  Also, data was presented which showed that adaptive
  755.    rate control can greatly decrease buffer utilization.  Jamal
  756.    Golestani (Bellcore) then presented his work on stop-and-go queueing.
  757.    This is a simple stalling algorithm implemented at the switches which
  758.    guarantees no dropped packets and greatly reduces delay jitter.  The
  759.    algorithm requires prior bandwidth reservation and some flow control
  760.    on sources, and is compatible with basic FIFO queues.  In the last
  761.    talk, Victor Frost (University of Kansas) discussed the impact of
  762.    different dropping policies on the perceived quality of a voice
  763.    connection.  When the source marks the drop priority of cells and the
  764.    switch drops low priority cells first, the perceived quality of the
  765.    connection is much higher than when cells are dropped randomly.
  766.  
  767. Session 8: Switch Architectures (Dave Sincoskie, Chair)
  768.  
  769.    Dave Mills (University of Delaware) presented work on a project now
  770.    under way at the University of Delaware to study architectures and
  771.    protocols for a high-speed network and packet switch capable of
  772.    operation to the gigabit regime over distances spanning the country.
  773.    It is intended for applications involving very large, very fast, very
  774.    bursty traffic typical of supercomputing, remote sensing, and
  775.    visualizing applications.  The network is assumed to be composed of
  776.    fiber trunks, while the switch architecture is based on a VLSI
  777.    baseband crossbar design which can be configured for speeds from 25
  778.    Mbps to 1 Gbps.
  779.  
  780.    Mills' approach involves an externally switched architecture in which
  781.    the timing and routing of flows between crossbar switches are
  782.    determined by sequencing tables and counters in high-speed memory
  783.  
  784.  
  785.  
  786. Partridge                                                      [Page 14]
  787.  
  788. RFC 1152                  IRSG Workshop Report                April 1990
  789.  
  790.  
  791.    local to each crossbar.  The switch program is driven by a
  792.    reservation-TDMA protocol and distributed scheduling algorithm
  793.    running in a co-located, general-purpose processor.  The end-to-end
  794.    customers are free to use any protocol or data format consistent with
  795.    the timing of the network.  His primary interest in the initial
  796.    phases of the project is the study of appropriate reservation and
  797.    scheduling algorithms.  He expect these algorithms to have much in
  798.    common with the PODA algorithm used in the SATNET and WIDEBAND
  799.    satellite systems and to the algorithms being considered for the
  800.    Multiple Satellite System (MSS).
  801.  
  802.    John Robinson (JR, BBN Systems and Technologies) gave a talk called
  803.    Beyond the Butterfly, which described work on a design for an ATM
  804.    cell switch, known as MONET.  The talk described strategies for
  805.    buffering at the input and output interfaces to a switch fabric
  806.    (crossbar or butterfly).  The main idea was that cells should be
  807.    introduced to the switch fabric in random sequence and to random
  808.    fabric entry ports to avoid persistent traffic patterns having high
  809.    cell loss in the switch fabric, where losses arise due to contention
  810.    at output ports or within the switch fabric (in the case of a
  811.    butterfly).  Next, the relationship of this work to an earlier design
  812.    for a large-scale parallel processor, the Monarch, was described.  In
  813.    closing, JR offered the claim that this class of switch is realizable
  814.    in current technology (barely) for operation over SONET OC-48 2.4
  815.    Gbps links.
  816.  
  817.    Dave Sincoskie (Bellcore) reported on two topics: recent switch
  818.    construction at Bellcore, and high-speed processing of ATM cells
  819.    carrying VC or DG information.  Recent switch design has resulted in
  820.    a switch architecture named SUNSHINE, a Batcher-banyan switch which
  821.    uses recirculation and multiple output banyans to resolve contention
  822.    and increase throughput.  A paper on this switch will be published at
  823.    ISS '90, and is available upon request from the author.  One of the
  824.    interesting traffic results from simulations of SUNSHINE shows that
  825.    per-port output queues of up to 1,000 cells (packets) may be
  826.    necessary for bursty traffic patterns.  Also, Bill Marcus (at
  827.    Bellcore) has recently produced Batcher-banyan (32x32) chips which
  828.    test up to 170Mb/sec per port.
  829.  
  830.    The second point in this talk was that there is little difference in
  831.    the switching processing of Virtual Circuit (VC) and Datagram (DG)
  832.    traffic that which has been previously broken into ATM cells at the
  833.    network edge.  The switch needs to do a header translation operation
  834.    followed by some queueing (not necessarily FIFO).  The header
  835.    translation of the VC and DG cells differs mainly in the memory
  836.    organization of the address translation tables (dense vs. sparse).
  837.  
  838.    The discussion after the presentations seemed to wander off the topic
  839.  
  840.  
  841.  
  842. Partridge                                                      [Page 15]
  843.  
  844. RFC 1152                  IRSG Workshop Report                April 1990
  845.  
  846.  
  847.    of switching, back to some of the source-routing vs. network routing
  848.    issues discussed earlier in the day.
  849.  
  850. Session 9: Open Mike Night (Craig Partridge, Chair)
  851.  
  852.    As an experiment, the workshop held an open mike session during the
  853.    evening of the second day.  Participants were invited to speak for up
  854.    to five minutes on any subject of their choice.  Minutes of this
  855.    session are sketchy because the chair found himself pre-occupied by
  856.    keeping speakers roughly within their time limits.
  857.  
  858.    Charlie Catlett (NSCA) showed a film of the thunderstorm simulations
  859.    he discussed earlier.
  860.  
  861.    Dave Cheriton (Stanford) made a controversial suggestion that perhaps
  862.    one could manage congestion in the network simply by using a steep
  863.    price curve, in which sending large amounts of data cost
  864.    exponentially more than sending small amounts of data (thus leading
  865.    people only to ask for large bandwidth when they needed it, and
  866.    having them pay so much, that we can afford to give it to them).
  867.  
  868.    Guru Parulkar (Washington University, St. Louis) argued that the
  869.    recent discussion on appropriateness of existing protocol and need
  870.    for new protocols (protocol architecture) for gigabit networking
  871.    lacks the right focus.  The emphasis of the discussion should be on
  872.    what is the right functionality for gigabit speeds, which is simpler
  873.    per packet processing, combination of rate and window based flow
  874.    control, smart retransmission strategy, appropriate partitioning of
  875.    work among host cpu+os, off board cpu, and custom hardware, and
  876.    others.  It is not surprising that the existing protocols can be
  877.    modified to include this functionality.  By the same token, it is not
  878.    surprising that new protocols can be designed which take advantage of
  879.    lessons of existing protocols and also include other features
  880.    necessary for gigabit speeds.
  881.  
  882.    Raj Jain (DEC) suggested we look at new ways to measure protocol
  883.    performance, suggesting our current metrics are insufficiently
  884.    informative.
  885.  
  886.    Dan Helman (UCSC) asked the group to consider, more carefully, who
  887.    exactly the users of the network will be.  Large consumers? or many
  888.    small consumers?
  889.  
  890.  
  891.  
  892.  
  893.  
  894.  
  895.  
  896.  
  897.  
  898. Partridge                                                      [Page 16]
  899.  
  900. RFC 1152                  IRSG Workshop Report                April 1990
  901.  
  902.  
  903. Session 10: Miscellaneous Topics (Bob Braden, Chair)
  904.  
  905.    As its title implies, this session covered a variety of different
  906.    topics relating to high-speed networking.
  907.  
  908.    Jim Kurose (University of Massachussetts) described his studies of
  909.    scheduling and discard policies for real-time (constrained delay)
  910.    traffic.  He showed that by enforcing local deadlines at switches
  911.    along the path, it is possible to significantly reduce overall loss
  912.    for such traffic.  Since his results depend upon the traffic model
  913.    assumptions, he ended with a plea for work on traffic models, stating
  914.    that Poisson models can sometimes lead to results that are wrong by
  915.    many orders of magnitude.
  916.  
  917.    Nachum Shacham (SRI International) discussed the importance of error
  918.    correction schemes that can recover lost cells, and as an example
  919.    presented a simple scheme based upon longitudinal parity.  He also
  920.    showed a variant, diagonal parity, which allows a single missing cell
  921.    to be recreated and its position in the stream determined.
  922.  
  923.    Two talks concerned high-speed LANs.  Biswanath Muhkerjee (UC Davis)
  924.    surveyed the various proposals for fair scheduling on unidirectional
  925.    bus networks, especially those that are distance insensitive, i.e.,
  926.    that can achieve 100% channel utilization independent of the bus
  927.    length and data rate.  He described in particular his own scheme,
  928.    which he calls p-i persistant.
  929.  
  930.    Howard Salwen (Proteon), speaking in place of Mehdi Massehi of IBM
  931.    Zurich who was unable to attend, also discussed high-speed LAN
  932.    technologies.  At 100 Mbps, a token ring has a clear advantage, but
  933.    at 1 Gbps, the speed of light kills 802.6, for example.  He briefly
  934.    described Massehi's reservation-based scheme, CRMA (Cyclic-
  935.    Reservation Multiple-Access).
  936.  
  937.    Finally, Yechiam Yemeni (YY, Columbia University) discussed his work
  938.    on a protocol silicon compiler.  In order to exploit the potential
  939.    parallelism, he is planning to use one processor per connection.
  940.  
  941.    The session closed with a spirited discussion of about the relative
  942.    merits of building an experimental network versus simulating it.
  943.    Proponents of simulation pointed out the high cost of building a
  944.    prototype and limitation on the solution space imposed by a
  945.    particular hardware realization.  Proponents of building suggested
  946.    that artificial traffic can never explore the state space of a
  947.    network as well as real traffic can, and that an experimental
  948.    prototype is important for validating simulations.
  949.  
  950.  
  951.  
  952.  
  953.  
  954. Partridge                                                      [Page 17]
  955.  
  956. RFC 1152                  IRSG Workshop Report                April 1990
  957.  
  958.  
  959. Session 11: Protocol Architectures (Vint Cerf, Chair)
  960.  
  961.    Nick Maxemchuk (AT&T Bell Labs) summarized the distinctions between
  962.    circuit switching, virtual circuits, and datagrams.  Circuits are
  963.    good for (nearly) constant rate sources.  Circuit switching dedicates
  964.    resources for the entire period of service.  You have to set up the
  965.    resource allocation before using it.  In a 1.7 Gbps network, a 3000-
  966.    mile diameter consumes 10**7 bytes during the circuit set-up round-
  967.    trip time, and potentially the same for circuit teardown.  Some
  968.    service requirements (file transfer, facsimile transmission) are far
  969.    smaller than the wasted 2*10**7 bytes these circuit management delays
  970.    impose.  (Of course, these costs are not as dramatic if the allocated
  971.    bandwidth is less than the maximum possible.)
  972.  
  973.    Virtual circuits allow shared use of bandwidth (multiplexing) when
  974.    the primary source of traffic is idle (as in Voice Time Assigned
  975.    Speech Interpolation).  The user notifies the network of planned
  976.    usage.
  977.  
  978.    Datagrams (DG) are appropriate when there is no prior knowledge of
  979.    use statistics or usage is far less than the capacity wasted during
  980.    circuit or virtual circuit set-up.  One can adaptively route traffic
  981.    among equivalent resources.
  982.  
  983.    In gigabit ATMs, the high service speed and decreased cell size
  984.    increases the relative burstiness of service requests.  All of these
  985.    characteristics combine to make DG service very attractive.
  986.  
  987.    Maxemchuk then described a deflection routing notion in which traffic
  988.    would be broken into units of fixed length and allowed into the
  989.    network when capacity was available and routed out by any available
  990.    channel, with preference being given to the channel on the better
  991.    path.  This idea is similar to the hot potato routing of Paul Baran's
  992.    1964 packet switching design.  With buffering (one buffer), Maxemchuk
  993.    achieved a theoretical 90% utilization.  Large reassembly buffers
  994.    provide for better throughput.
  995.  
  996.    Maxemchuk did not have an answer to the question: how do you make
  997.    sure empty "slots" are available where needed? This is rather like
  998.    the problem encountered by D. Davies at the UK National Physical
  999.    Laboratory in his isarythmic network design in which a finite number
  1000.    of crates are available for data transport throughout the network.
  1001.  
  1002.    Guru Parulkar (Washington University, St. Louis) presented a broad
  1003.    view of an Internet architecture in which some portion of the system
  1004.    would operate at gigabit speeds.  In his model, internet, transport,
  1005.    and application protocols would operate end to end.  The internet
  1006.    functions would be reflected in gateways and in the host/net
  1007.  
  1008.  
  1009.  
  1010. Partridge                                                      [Page 18]
  1011.  
  1012. RFC 1152                  IRSG Workshop Report                April 1990
  1013.  
  1014.  
  1015.    interface, as they are in the current Internet.  However, the
  1016.    internet would support a new type of service called a congram which
  1017.    aims at combining strengths of both soft connection and datagram.
  1018.  
  1019.    In this architecture, a variable grade of service would be provided.
  1020.    Users could request congrams (UCON) or the system could set them up
  1021.    internally (Picons) to avoid end-to-end setup latency.  The various
  1022.    grades of service could be requested, conceptually, by asserting
  1023.    various required (desired) levels of error control, throughput,
  1024.    delay, interarrival jitter, and so on.  Gateways based on ATM
  1025.    switches, for example, would use packet processors at entry/exit to
  1026.    do internet specific per packet processing, which may include
  1027.    fragmentation and reassembly of packets (into and out of ATM cells).
  1028.  
  1029.    At the transport level, Parulkar argued for protocols which can
  1030.    provide application-oriented flow and error control with simple per
  1031.    packet processing.  He also mentioned the notion of a generalized RPC
  1032.    (GRPC) in which code, data, and execution might be variously local or
  1033.    remote from the procedure initiator.  GRPC can be implemented using
  1034.    network level virtual storage mechanisms.
  1035.  
  1036.    The basic premise of Raj Yavatkar's presentation (University of
  1037.    Kentucky) was that processes requiring communication service would
  1038.    specify their needs in terms of peak and average data rate as well as
  1039.    defining burst parameters (frequency and size).  Bandwidth for a
  1040.    given flow would be allocated at the effective data rate that is
  1041.    computed on the basis of flow parameters.  The effective data rate
  1042.    lies somewhere between the peak and average data rate based on the
  1043.    burst parameters.  Statistical multiplexing would take up the gap
  1044.    between peak and effective rate when a sudden burst of traffic
  1045.    arrives.  Bounds on packet loss rate can be computed for a given set
  1046.    of flow parameters and corresponding effective data rate.
  1047.  
  1048.    This presentation led to a discussion about deliberate disciplining
  1049.    of inter-process communication demands to match the requested flow
  1050.    (service) profile.  This point was made in response to the
  1051.    observation that we often have little information about program
  1052.    behavior and might have trouble estimating the network service
  1053.    requirements of any particular program.
  1054.  
  1055. Architectural Discussion
  1056.  
  1057.    An attempt was made to conduct a high-level discussion on various
  1058.    architectural questions.  The discussion yielded a variety of
  1059.    opinions:
  1060.  
  1061.       1.  The Internet would continue to exist in a form similar
  1062.           to its current incarnation, and gateways would be required,
  1063.  
  1064.  
  1065.  
  1066. Partridge                                                      [Page 19]
  1067.  
  1068. RFC 1152                  IRSG Workshop Report                April 1990
  1069.  
  1070.  
  1071.           at least to interface the existing facilities to the high
  1072.           speed packet switching environment.
  1073.  
  1074.       2.  Strong interest was expressed by some participants in access
  1075.           to raw (naked ATM) services.  This would permit users
  1076.           to construct their own gigabit nets, at the IP level, at any
  1077.           rate.  The extreme view of this was taken by David Cheriton
  1078.           who would prefer to have control over routing decisions and
  1079.           other behavior of the ATM network.
  1080.  
  1081.       3.  The speed of light problem (latency, round-trip delay)
  1082.           is not going to go away and will have serious impact on
  1083.           control of the system.  The optimistic view was taken,
  1084.           for example, by Craig Partridge and Van Jacobson, who felt
  1085.           that many of the existing network and communications
  1086.           management mechanisms used in the present Internet protocols
  1087.           would suffice, if suitably implemented, at higher speeds.
  1088.           A less rosy view was taken by David Clark who observed
  1089.           (as did others) that many transactions would be serviced in
  1090.           much less than one round-trip time, so that any end-to-end
  1091.           controls would be largely useless.
  1092.  
  1093.       4.  For applications requiring fixed, periodic service,
  1094.           reservation of resource seemed reasonably attractive to many
  1095.           participants, as long as the service period dominated the
  1096.           set-up time (round-trip delay) by an appreciable
  1097.           margin.
  1098.  
  1099.       5.  There was much discussion throughout the workshop of
  1100.           congestion control and flow control.  Although these
  1101.           problems were not new, they took on somewhat newer
  1102.           character in the presence of much higher round-trip delays
  1103.           (measured in bits outstanding).  One view is that end-to-end
  1104.           flow control is needed, in any case, to moderate sources
  1105.           sending to limited bandwidth receivers.  End-to-end flow
  1106.           control may not, however, be sufficient to protect the
  1107.           interior of the network from congestion problems, so
  1108.           additional, intra-network means are needed to cope with
  1109.           congestion hot spots.   Eventually such conditions
  1110.           have to be reflected to the periphery of the network to
  1111.           moderate traffic sources.
  1112.  
  1113.       6.  There was disagreement on the build or simulate
  1114.            question.  One view was in favor of building network
  1115.           components so as to collect and understand live application
  1116.           data.  Another view held that without some careful
  1117.           simulation, one might have little idea what to build
  1118.           (for example, Sincoskie's large buffer pool requirement was
  1119.  
  1120.  
  1121.  
  1122. Partridge                                                      [Page 20]
  1123.  
  1124. RFC 1152                  IRSG Workshop Report                April 1990
  1125.  
  1126.  
  1127.           not apparent until the system was simulated).
  1128.  
  1129. Comments from Workshop Evaluation Forms
  1130.  
  1131.    At the end of the IRSG workshop, we asked attendees to fill out an
  1132.    evaluation form.  Of the fifty-one attendees, twenty-nine (56%)
  1133.    turned in a form.
  1134.  
  1135.    The evaluation form asked attendees to answer two questions:
  1136.  
  1137.       #1.  Do you feel that having attended this workshop will help you
  1138.            in your work on high speed networks during the next year?
  1139.  
  1140.       #2.  What new ideas, questions, or issues, did you feel were
  1141.            brought up in the workshop?
  1142.  
  1143.    In this section we discuss the answers we got to both questions.
  1144.  
  1145. Question #1
  1146.  
  1147.    There was a satisfying unanimity of opinion on question #1.  Twenty-
  1148.    four attendees answered yes, often strongly (e.g., Absolutely and
  1149.    very much so).  Of the remaining five respondents, three said they
  1150.    expected it to have some effect on their research and only two said
  1151.    the workshop would have little or no effect.
  1152.  
  1153.    Some forms had some additional notes about why the workshop helped
  1154.    them.  Several people mentioned that there was considerable benefit
  1155.    to simply meeting and talking with people they hadn't met before.  A
  1156.    few other people noted that the workshop had broadened their
  1157.    perspective, or improved their understanding of certain issues.  A
  1158.    couple of people noted that they'd heard ideas they thought they
  1159.    could use immediately in their research.
  1160.  
  1161. Question #2
  1162.  
  1163.    Almost everyone listed ideas they'd seen presented at the conference
  1164.    which were new to them.
  1165.  
  1166.    It is clear that which new ideas were important was a matter of
  1167.    perspective - the workshop membership was chosen to represent a broad
  1168.    spectrum of specialties, and people in different specialities were
  1169.    intrigued by different ideas.  However, there were some general
  1170.    themes raised in many questionnaires:
  1171.  
  1172.  
  1173.       (1)  Limitations of our traffic models.  This particular subject
  1174.            was mentioned, in some form, on many forms.  The attendees
  1175.  
  1176.  
  1177.  
  1178. Partridge                                                      [Page 21]
  1179.  
  1180. RFC 1152                  IRSG Workshop Report                April 1990
  1181.  
  1182.  
  1183.            generally felt we didn't understand how network traffic would
  1184.            behave on a gigabit network, and were concerned that people
  1185.            might design (or worse, standardize) network protocols for
  1186.            high speed networks that would prove inadequate when used
  1187.            with real traffic.  Questions were raised about closed-loop
  1188.            vs. open-loop traffic models and the effects of varying types
  1189.            of service.  This concern led several people to encourage the
  1190.            construction of a high-speed testbed, so we can actually see
  1191.            some real traffic.
  1192.  
  1193.       (2)  Congestion control.  Despite the limitations of our traffic
  1194.            models, respondents felt that congestion control at both
  1195.            switching elements and network wide was going to be even more
  1196.            important than today, due to the wider mix of traffic that
  1197.            will appear on gigabit networks.  Most forms mentioned at
  1198.            least one of the congestion control talks as a containing a
  1199.            new idea.  The talks by Victor Frost, Jamal Golestani and
  1200.            Scott Shenker received the most praise.  Some attendees were
  1201.            also interested in methods for keeping the lower-layer
  1202.            switching fabric from getting congested and mentioned the
  1203.            talks by Robinson and Maxemchuk as of interest.
  1204.  
  1205.       (3)  Effects of fixed delay.  While the reviews were by no means
  1206.            unanimous, many people had come to the conclusion that the
  1207.            most serious problem in gigabit networking was not bandwidth,
  1208.            but delay.  The workshop looked at this issue in several
  1209.            guises, and most people listed at least one aspect of fixed
  1210.            delay as a challenging new problem.  Questions that people
  1211.            mentioned include:
  1212.  
  1213.  
  1214.     -    How to avoid a one round-trip set up delay, for less than one
  1215.          round-trip time's worth of data?
  1216.  
  1217.     -    How to recover from error without retransmission (and thus
  1218.          additional network delays)?  Several people were intrigued by
  1219.          Nachum Shacham's work on error detection and recovery.
  1220.  
  1221.     -    Should we use window flow-control or rate-based flow control
  1222.          when delays were long?
  1223.  
  1224.     -    Can we modify the idea of remote procedure calls to deal with
  1225.          the fact that delays are relatively long?
  1226.  
  1227. A couple of attendees noted that while some of these problems looked
  1228. similar to those of today, the subtle differences caused by operating a
  1229. network at gigabit speeds led them to believe the actual approaches to
  1230. solving these problems would have to be very different from those of
  1231.  
  1232.  
  1233.  
  1234. Partridge                                                      [Page 22]
  1235.  
  1236. RFC 1152                  IRSG Workshop Report                April 1990
  1237.  
  1238.  
  1239. today.
  1240.  
  1241. Security Considerations
  1242.  
  1243.    Security issues are not discussed in this memo.
  1244.  
  1245. Author's Address
  1246.  
  1247.    Craig Partridge
  1248.    Bolt Beranek and Newman Inc.
  1249.    50 Moulton Street
  1250.    Cambridge, MA 02138
  1251.  
  1252.    Phone: (617) 873-2459
  1253.  
  1254.    EMail: craig@BBN.COM
  1255.  
  1256.  
  1257.  
  1258.  
  1259.  
  1260.  
  1261.  
  1262.  
  1263.  
  1264.  
  1265.  
  1266.  
  1267.  
  1268.  
  1269.  
  1270.  
  1271.  
  1272.  
  1273.  
  1274.  
  1275.  
  1276.  
  1277.  
  1278.  
  1279.  
  1280.  
  1281.  
  1282.  
  1283.  
  1284.  
  1285.  
  1286.  
  1287.  
  1288.  
  1289.  
  1290. Partridge                                                      [Page 23]
  1291.