home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #31 / NN_1992_31.iso / spool / comp / arch / 11824 < prev    next >
Encoding:
Text File  |  1992-12-21  |  2.6 KB  |  61 lines

  1. Newsgroups: comp.arch
  2. Path: sparky!uunet!stanford.edu!nntp.Stanford.EDU!bwilson
  3. From: bwilson@leland.Stanford.EDU (Robert Wilson)
  4. Subject: Re: Superscalar vs. multiple CPUs ?
  5. Message-ID: <1992Dec21.173732.14154@leland.Stanford.EDU>
  6. Sender: news@leland.Stanford.EDU (USENET News System)
  7. Organization: DSG, Stanford University, CA 94305, USA
  8. References: <lj976dINNg4d@exodus.Eng.Sun.COM>
  9. Date: Mon, 21 Dec 92 17:37:32 GMT
  10. Lines: 49
  11.  
  12.  
  13. In article <lj976dINNg4d@exodus.Eng.Sun.COM> grover@brahmand.Eng.Sun.COM (Vinod Grover) writes:
  14. > I suggest you read the Butler et. al. paper cited [1] earlier by someone
  15. > in this thread. These authors claim that on an unrestricted data flow
  16. > machine, *general purpose* codes like gcc, li, eqntott, (taken from
  17. > SPEC89) have pretty high degree of parallelisms in them. Measured in
  18. > terms of IPC:
  19. >   gcc - 38
  20. >   espresso - 179
  21. >   eqntott - 300
  22. >   li - 162
  23. > Judging from these claims, the issue is not how much parallelism there
  24. > is but how cost-effective is it to extract it. As CPU resources
  25. > approach realistic values the sustainable issue rates on these codes
  26. > fall dramatically, (2-4). These are limits imposed by the
  27. > hardware/compilers. 
  28. > [1] Butler, Yeh, Patt, Alsup, Scales, Shebanow, "Single Instruction
  29. > Stream Parallelism is Greater than Two", Intnl. Symp. on Comp. Arch
  30. > 1991. 
  31.  
  32. Unfortunately, the limited degree of parallelism in general-purpose
  33. codes is NOT just due to the current state of hardware and compilers.
  34. The study by Butler et al. contains some interesting results and is
  35. definitely worth reading but don't put too much weight on the numbers
  36. for the Unrestricted Dataflow (UDF) Machine.  This machine only considers
  37. data dependences.  In the programs mentioned above, however, most of the
  38. computation centers around executing branches, so the limiting factor is
  39. not just WHEN can the instructions execute, but also WHICH instructions
  40. will be executed.  The UDF machine completely ignores these control
  41. dependences which are an inherent part of the program semantics and not
  42. just a side effect of limited hardware and compilers.
  43.  
  44. There are, of course, some things we can do to try to mitigate the
  45. effects of control dependences.  Branch prediction with speculative
  46. execution, control dependence analysis, and multiple processors are
  47. three things that we have found so far [2].  As new techniques are
  48. developed, we can certainly expect to extract more parallelism from
  49. general-purpose codes, but for now, I think 2 - 4 is a reasonable
  50. estimate for the IPC of a uniprocessor.
  51.  
  52. Bob Wilson
  53. bwilson@shasta.stanford.edu
  54.  
  55. [2] Monica Lam and Robert Wilson, "Limits of Control Flow on Parallelism",
  56. 19th Intnl. Symp. on Comp. Arch, 1992.
  57.  
  58.