home *** CD-ROM | disk | FTP | other *** search
/ Internet Info 1997 December / Internet_Info_CD-ROM_Walnut_Creek_December_1997.iso / isoc / pub / isoc_news / 1-2 / n-1-2-030.50.2a.Z / n-1-2-030.50.2a
Text File  |  1994-03-26  |  5KB  |  84 lines

  1.  
  2.  
  3. N-1-2-030.50.2  Gigabits by Craig Partridge*, craig@aland.bbn.com
  4.  
  5.  
  6. The topic of this quarter's column is interfacing gigabit computers
  7. and gigabit networks.  It is a problem that has to be solved soon and
  8. is proving surprisingly difficult.
  9.  
  10. Let's start with the computers.  I have recently received the
  11. preliminary handbook for the DEC "Alpha" chipset.  Alpha is a RISC
  12. chip design that DEC hopes to use well into the 21st century.  The
  13. first version has a 6 nanosecond clock and can do two instructions in
  14. parallel per cycle - so at peak rates (for a few instructions) the CPU
  15. will be running at about 300 million instructions per second.  The
  16. current chip has a 128 bit bus with a 10 ns cycle, so at peak speeds,
  17. the processor is consuming 12.8 gigabits/second from outside the
  18. processor.  (Internally, using on chip cache memory, the processor
  19. will actually be processing somewhat more data.)  While looping in
  20. code and smart management of caches will limit how data has to come
  21. from peripheral devices, much of the data has got to come from some
  22. peripheral, and some of the data is presumably going to come from the
  23. network the computer is attached to.  Another way to think about the
  24. computer's data requirements is to remember the old rule of thumb
  25. attributed to Amdahl: one instruction requires a bit of I/O.  That
  26. rule implies the first Alpha processor will need between 150 and 300
  27. megabits of I/O capacity.  Parallel disk systems can provide some of
  28. that bandwidth, but the network is going to have to provide a lot too.
  29.  
  30. Attaching computers which process gigabits of data to networks which
  31. have gigabits of bandwidth creates a computing milieu I like to refer
  32. to as the "gigabit environment".  The term gigabit environment helps
  33. me remember that both computer and network are capable of and
  34. interested in handling data at gigabit rates.
  35.  
  36. Several researchers have already started work on interfacing gigabit
  37. networks and fast computers.  Some of those projects, most notably
  38. those at Bellcore, the University of Pennsylvania, MIT and DEC Western
  39. Research Lab, have been looking at interfacing gigabit networks to
  40. workstations.  I'd like to introduce you to some of the problems these
  41. teams are discovering because chips like the DEC Alpha and the faster
  42. SPARC chips coming out this year will eventually appear in
  43. workstations and those workstations will appear on our desktops.  Thus
  44. the gigabit network to workstation connection has the potential to be
  45. a key problem in the late 1990s.
  46.  
  47. One problem that context switching in RISC processors tends to be
  48. relatively expensive, measured in hundreds of instructions.  So if a
  49. packet arrives for an application which is not currently running, it
  50. may take hundreds of instruction cycles to get the process running so
  51. it can accept the packet.  That's a lot of instructions, particularly
  52. when it may take only a few hundred instructions to do all the
  53. protocol processing on the packet.  Jeff Mogul of DEC has suggested
  54. that to avoid this problem, it may make sense in some cases to have
  55. applications busy wait for packets.
  56.  
  57. Another problem is memory hierarchies.  In part because fast memory is
  58. very expensive, many workstations have several layers of memory
  59. hierarchies.  (Indeed, these memory hierarchies are one reason that
  60. context switching is so expensive.)  Getting data to or from a network
  61. interface requires moving data between the bottom of the memory
  62. hierarchy (the interface) and the top of the memory hierarchy (the
  63. processor) and moving that data can take a long time.  David
  64. Tennenhouse of MIT has suggested that to avoid these memory-related
  65. delays, it make make sense to make network interfaces which act like
  66. co-processors, and attach the network interface to the co-processor
  67. pins on the CPU chip!  Current trends are to get rid of co-processor
  68. pins because pins space is tight, but Tennenhouse's observation that
  69. we need to look at fast paths from network to CPU is important.
  70.  
  71. Finally, folks are running into unnecessary bottlenecks in workstation
  72. designs.  For example, the University of Pennsylvania team reports
  73. that while the IBM RS/6000 has a fast bus and a fast processor, the
  74. I/O controller at the head of the bus is quite slow, making it
  75. difficult to use the full power of Pennsylvania's prototype high-speed
  76. network interface.
  77.  
  78. For more on this work, I suggest you look at Mogul and Borg's paper in
  79. Proc. ACM ASPLOS, and the papers on ATM host interfaces in Proc. ACM
  80. SIGCOMM '91.
  81.  
  82.  
  83. * Research Scientist, BBN, and Editor-in-Chief, IEEE Network Magazine
  84.