home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #30 / NN_1992_30.iso / spool / comp / arch / 11664 < prev    next >
Encoding:
Text File  |  1992-12-15  |  16.3 KB  |  365 lines

  1. Newsgroups: comp.arch
  2. Path: sparky!uunet!zaphod.mps.ohio-state.edu!uwm.edu!cs.utexas.edu!wotan.compaq.com!twisto.eng.hou.compaq.com!croatia.eng.hou.compaq.com!simonich
  3. From: simonich@croatia.eng.hou.compaq.com (Chris Simonich)
  4. Subject: Compaq's Proposed Scalable I/O Architecture
  5. Message-ID: <1992Dec11.231814.13317@twisto.eng.hou.compaq.com>
  6. Sender: news@twisto.eng.hou.compaq.com (Netnews Account)
  7. Organization: Compaq Computer Corp.
  8. Distribution: usa
  9. Date: Fri, 11 Dec 1992 23:18:14 GMT
  10. Lines: 353
  11.  
  12. Sorry if this is a repost, we were unable to determine if our
  13. server posted the original copy.  Could someone outside the
  14. Houston area please post a response upon receiving this article?
  15. -----------------------------------------------------------------
  16.  
  17.  
  18. ************************************************************
  19. *                                                          *
  20. *               COMPAQ COMPUTER CORPORATION                *
  21. *            HOUSTON, TX               *
  22. *                                                          *
  23. *          STRATEGIC TECHNOLOGY DEVELOPMENT GROUP          *
  24. *                                                          *
  25. *   We're tired of beating our heads against the wall      *
  26. *   trying to expand the performance of I/O buses. Let's   *
  27. *   face it, wide-buses are just not a long term cost      *
  28. *   effective solution for high performance computer       *
  29. *   solutions.  So here is an alternative...               *
  30. *                                                          *
  31. ************************************************************
  32. *                                                          *
  33. *  Compaq presented a proposal at the PCMCIA sub-committee *
  34. *  (CardBus) meeting in Deerfield Beach, Florida, on       *
  35. *  12/7/92 for possible adoption as the CardBus standard.  *
  36. *                                                          *
  37. ************************************************************
  38.  
  39. Our proposed I/O solution is
  40.     - hierarchical 
  41.     - point-to-point
  42.     - channel I/O architecture
  43.     - scaleable
  44.     - high performance
  45.     - processor & endian independent
  46.     - low cost
  47.  
  48. In short, NOT yet-another shared-wide-bus!!!
  49.  
  50.  
  51.                         CPU
  52.                          |
  53.                          |---memory
  54.                        MIOC
  55.                        /  \
  56.                      IOC  dev3
  57.                      / \
  58.                  dev1  dev2
  59.  
  60.                       Figure-1
  61.  
  62. The basic I/O subsystem consists of a "main" I/O concentrator
  63. (MIOC) which interfaces the I/O subsystem to any CPU/Memory
  64. architecture [figure-1].  One or more point-to-point 
  65. channels propagate in a hierarchical manner from the MIOC to 
  66. the devices.  One such device is an I/O Concentrator (IOC) 
  67. which allows the bandwidth of a single point-to-point 
  68. channel to be shared amongst several devices.  Other devices 
  69. might include network interfaces, graphics, SCSI, etc.  You 
  70. may optionally allow a few very low bandwidth devices to 
  71. share the same channel under a controlled environment.
  72.  
  73. A channel is an interconnect between two ports, one residing
  74. in a (M)IOC and the other in a device.  A port closer to 
  75. CPU-memory is referred to as an upstream, and a port further
  76. from CPU-memory is referred to as a downstream.  The physical
  77. channel consists of 12 signals:
  78.     -  a 50 MHz synchronizing clock
  79.     -  two handshake signals
  80.     -  eight data, and 
  81.     -  a parity
  82.  
  83. The small number of signals on a channel reduces the pin
  84. requirements for interface ICs and the physical size of
  85. add-in boards and connectors, reducing the cost of 
  86. implementation.  Because all the data transfers are in byte-
  87. wide quantities the sequence of data is in increasing address 
  88. order, i.e., there is no little- or big-endianess in the 
  89. data.  Also note that the channel pin-out is NOT a 
  90. derivative of any particular CPU chip's memory interface 
  91. signals, allowing the solution to be non CPU architecture
  92. specific.
  93.  
  94. The proposed solution minimizes "out-of-band" signals.  All 
  95. operations within the I/O subsystem are carried out via 
  96. packets.  Even the synchronizing channel clock is propagated
  97. from the MIOC to the devices through IOCs.  In other words,
  98. the channel clock is redistributed on every IOC's downstream
  99. port.  The signal timings of a channel is independent from
  100. all other channels.  This virtually eliminates signal skew
  101. problems, especially for the clock, common in today's shared
  102. bus systems.
  103.  
  104. The standard data transfer rate on a channel is 50 
  105. MBytes/sec (MBPS) and the upper-bound will be limited by the 
  106. physical environment of the channel.  For example, a current 
  107. high performance implemention with GTL (Gunning Transistor
  108. Logic) drivers and receivers could yield a transfer rate of
  109. 200 MBPS.
  110.  
  111. Two ports on a channel "agree" on a transfer rate during the 
  112. initialization.  Each port multiplies the 50 MHz channel 
  113. clock to generate internal clocks to operate at the agreed 
  114. transfer rate.  Each IOC port can operate at a different
  115. transfer rate.  A device designed to support high transfer
  116. rates also works at lower transfer rates.  That means a
  117. device can be used at any I/O hierarchy level.  The I/O "tree"
  118. should be carefully configured to optimize the bandwidth
  119. distributions according to the system and devices requirements.
  120.  
  121.  
  122. Operations occur using packet-based commands that flow 
  123. through the channels.  Each packet generally contains four 
  124. fields
  125. - command (Read, Write, Error, Extensions/Interrupts, etc.)
  126. - size (the amount of data to be transferred)
  127. - address
  128. - data
  129.  
  130. Only the command field is mandatory.  All ports are 
  131. responsible for some encoding and decoding of packets.  Note 
  132. that only one packet at a time can be transferred on a 
  133. channel.  This means that there will be times that
  134. - a devices cannot send or receive when an IOC downstream port
  135.   does not have space or data, respectively, and
  136. - both ports want to send at the same time.
  137. The channel protocol supports handshaking for data transfers
  138. as well as for conflict resolutions.
  139.  
  140. The commands are designed to allow optimal use of the
  141. distributed I/O bandwidth and to let devices maintain high
  142. bandwidths even when latencies are long.  For example, the
  143. read operations are split transactions, where each read
  144. packet is later responded by a corresponding read-response
  145. packet.
  146.  
  147. The proposed solution is designed to allow the CPU to 
  148. directly read and write registers of MIOCs, IOCs, and
  149. devices in a programmed I/O manner.  However, the
  150. architecture particularly lends itself to Command List
  151. Processing Master devices.  These entities run device-
  152. specific command contexts placed in system memory that define
  153. their operation.  This potentially frees the main CPU to
  154. perform other operations.
  155.  
  156.  
  157. ************************************************************
  158. *                                                          *
  159. *  So, what do you think?  We are interested in making     *
  160. *  this proposal an open Industry Standard.  As such, you  *
  161. *  may request further information, give us your comments, *
  162. *  or ask questions.                                       *
  163. *                                                          *
  164. *                                                          *
  165. *  Contact:                                                *
  166. *                                                          *
  167. *   David Wooten, Manager,                                 *
  168. *     Strategic Technology Development                     *
  169. *     Compaq Computer Corporation,                         *
  170. *     20555, SH 249,                                       *
  171. *     Houston, TX                                          *
  172. *                                                          *
  173. *   Email: davidw@twisto.compaq.com                        *
  174. *   Phone: (713)378-7231                                   *
  175. *   Fax:   (713)374-2580                                   *
  176. *                                                          *
  177. *                                                          *
  178. *                                                          *
  179. *  CONTINUE READING IF YOU'RE INTERESTED IN WHY WE SPENT   *
  180. *  TIME DEVELOPING THIS CONCEPT!!!                         *
  181. *                                                          *
  182. ************************************************************
  183.  
  184. The question we asked ourselves was how can one build an I/O 
  185. subsystem that is high performance, easy to interface, easy 
  186. to expand, and inexpensive?
  187.  
  188. A shared wide-bus is not the solution due to its inherent 
  189. limitations, such as distributed capacitance, one-at-a-time 
  190. transmit, and high pin count for the mother board and add-in 
  191. cards.
  192.  
  193. In the past, shared bus architectures made sense because of 
  194. the TTL technology and the high-cost-and-low-integration of
  195. silicon.  The PC architecture that started almost a decade
  196. ago with a single, shared, 8-bit memory-I/O bus (known as 
  197. "ISA") has evolved into many variants due to the ever-
  198. escalating performance requirements of x86 based CPU
  199. systems.  This phenomenon is also seen in other system
  200. architectures based on non-x86 CPUs.
  201.  
  202. One of the first changes in PC evolution was to move the CPU 
  203. and the memory to a faster proprietary local bus when the 
  204. ISA bus became a bottleneck.  The I/O data bus was widened 
  205. to 16-bit and then to 32-bit to provide higher bandwidth 
  206. for some devices.  There were two PC "wide-bus" solutions: 
  207. EISA, a super-set of ISA for backward compatibility, and 
  208. Micro Channel (MCA).
  209.  
  210. EISA system is more flexible than ISA (and MCA) system
  211. because it can accept either EISA or ISA card.  Also, EISA
  212. cards in EISA systems can provide higher performance than
  213. ISA cards in ISA (or EISA) systems.  EISA has served quite
  214. well for several high-performance devices (e.g., Compaq's
  215. high performance QVision graphics card).  As a tradeoff
  216. for the higher bandwidth, the system and the add-in cards
  217. for the wider I/O buses are more expensive than comparable
  218. ISA solutions.  Because ISA can provide adequate bandwidth
  219. for the majority of devices, several board vendors continue
  220. to build more boards for ISA because of the larger available
  221. market.
  222.  
  223. More recently, color graphics and video applications have
  224. become popular for PCs.  In addition, high pixel 
  225. resolution and more bits-per-pixel (for color) displays
  226. have become more affordable.  Consequently, the bandwidth
  227. demands for the graphics/video devices have become too
  228. large for even EISA and MCA.  To correct this deficiency,
  229. several system OEMs have moved graphics onto higher
  230. bandwidth proprietary local buses.  As the practice of
  231. moving faster devices onto the local bus became common,
  232. there was a need for a standard.  Currently, there are
  233. two local bus standard proposals, namely, PCI (by Intel)
  234. and VL-Bus (by VESA).
  235.  
  236. Existing processors do not have a PCI bus and future 
  237. processors will not directly support the VL-Bus.  Besides, 
  238. PCI and VL have limited plug-in (card) support.  
  239. Consequently, PC systems utilizing PCI or VL may have 
  240. multiple levels of buses (CPU bus, local bus, standard I/O 
  241. bus) and IC bridges to interface between different bus 
  242. protocols.  All of this leads to higher system and add-in 
  243. board costs.  Chip and board vendors also need to choose 
  244. between many different interfaces and form-factors to 
  245. support a wide range of system types.
  246.  
  247. Worse yet, both PCI and VL buses will very likely try to 
  248. satisfy future needs, such as higher bandwidth and 3.3V 
  249. technology, by CHANGING the physical layer.  Examples 
  250. might include: a wider (64-bit) bus once 32-bits runs out of 
  251. steam, and a different driver/receiver technology for higher 
  252. frequencies.  When a 32-bit bus is expanded to 64-bit, a
  253. high-bandwidth (e.g., video) device will not gain 
  254. performance on the 64-bit bus unless it is redesigned for
  255. 64-bit transfers.  Protocols might also have to change and 
  256. many of these changes will render today's PCI and VL devices 
  257. incompatible (PCI does have a compatible transition to 64-
  258. bits).  The additional drivers/receivers and new design will
  259. make the new devices to be more expensive.  The trick is to
  260. allow the aggregate system bandwidth to go up without having
  261. to redesign everything.
  262.  
  263. Neither PCI nor VL supports ease-of-use (hot-insertion and
  264. plug-and-play) features.  Depending on implementation,
  265. PCMCIA does not support hot-swap and may not offer enough
  266. performance for some applications.  A PCMCIA sub-committee
  267. was created to come up with a PCMCIA super-set called
  268. CardBus.  As mentioned earlier, board vendors made more ISA
  269. cards than EISA cards for cost reasons and larger market share.
  270. Similarly, we are guessing that, board vendors will build
  271. more PCMCIA cards than CardBus cards, if CardBus is a
  272. super-set of PCMCIA, i.e., a wider and more expensive 32-bit
  273. bus and backward compatible.
  274.  
  275. To summarize: the PC industry has tried several times to 
  276. solve increasingly higher performance I/O requirements by 
  277. utilizing a multitude of wide, shared buses.  Most solutions 
  278. did not last long because they were not scaleable and they 
  279. were EXPENSIVE.  As a result most PC users continue to buy 
  280. cheap and reasonable performance solutions.  What the 
  281. computer industry needs is a solution that:
  282. (a) solves today's problems (performance, expansion and
  283.     ease-of-use) in a cost effective manner AND
  284. (b) offers a migration path for those who want it AND
  285. (c) is processor independent AND
  286. (d) will provide longevity.
  287.  
  288. Our proposed solution can offer ALL of these properties!
  289.  
  290.  
  291. ************************************************************
  292. *                                                          *
  293. *   To summarize the major Features:                       *
  294. *                                                          *
  295. ************************************************************
  296.  
  297. Our proposed solution is scaleable in multiple dimensions:
  298. performance, expandability and cost.  Specifically
  299.  
  300. FOR PERFORMANCE:
  301. (a) the CPU-memory bandwidth is decoupled from the slower 
  302.     device latencies,
  303. (b) point-to-point minimizes the physical constraints and 
  304.     GTL enables higher signal rates than TTL,
  305.  
  306. FOR EXPANDABILITY:
  307. (c) virtually unlimited number of devices can be connected
  308.     on-board or off-connectors,
  309. (d) expansion can also be made in external boxes via a small
  310.     pin-count robust protocol (e.g., a fast serial link)
  311. (e) hot plug-and-play is supported,
  312.  
  313. FOR COST:
  314. (f) small packages/connectors/boards and high integration 
  315.     can be achieved because of the small number of pins to 
  316.     interface,
  317. (g) the number of PCB layers can be minimized because of 
  318.     "clean" layout and no long traces (even in the case of 
  319.     busing, the fanouts are fairly short),
  320. (h) development cost can be reduced by utilizing common 
  321.     functional blocks (e.g., state machines, FIFOs),
  322. (i) time-to-market can be reduced by integrating common 
  323.     parts,
  324. (j) common parts for a wide range of systems enable large 
  325.     volume, fewer inventory part types and consistent 
  326.     test/manufacturing techniques,
  327.  
  328. FOR COMPATIBILITY:
  329. (k) standard I/Os such as ROM and keyboards can be tapped 
  330.     off of an MIOC or IOC,
  331. (l) existing standard buses (e.g., ISA, PCMCIA) can also be 
  332.     implemented off MIOC or IOC,
  333. (m) Existing application software and operating systems will
  334.     be compatible with some driver updates.
  335.  
  336. FOR LONGEVITY:
  337. (n) the same devices can be reused in future systems because
  338.     they are processor-neutral,
  339. (o) the same I/O subsystem or architecture can be used in a 
  340.     family of products (portables, desktops, workstations, 
  341.     servers),
  342. (p) the same device can be used for different transfer rates 
  343.     without changing the physical interface, and
  344. (q) changing a device interface in the future on a channel 
  345.     does not affect the rest of the devices [we call this 
  346.     "damage control"].
  347.  
  348. ************************************************************
  349. *                                                          *
  350. *   Thanks for reviewing our thoughts!  Feel free to       *
  351. *   to contact us for more information, we're here to      *
  352. *   help!!!                                                *
  353. *                                                          *
  354. *   Happy Holidays from (Strat. Tech. Dev.)                *
  355. *     David Wooten, Kevin Leigh, Reynold Starnes,          *
  356. *     Thanh Tran, Chris Simonich, Brett Costly,            *
  357. *     David Murray, Craig Miller, Roger Tipley             *
  358. *                                                          *
  359. ************************************************************
  360. --
  361. ------------------------------------------------------
  362. Christopher Simonich        simonich@twisto.compaq.com
  363. Compaq Computer Corp.       [713] 374-1898
  364. ------------------------------------------------------
  365.