home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1993 #1 / NN_1993_1.iso / spool / comp / parallel / 2894 < prev    next >
Encoding:
Text File  |  1993-01-11  |  1.3 KB  |  38 lines

  1. Newsgroups: comp.parallel
  2. Path: sparky!uunet!europa.asd.contel.com!gatech!hubcap!fpst
  3. From: Stephen Vavasis <vavasis@cs.cornell.EDU>
  4. Subject: definition of parallel efficiency
  5. Message-ID: <1993Jan11.142638.7789@hubcap.clemson.edu>
  6. Apparently-To: comp-parallel@eddie.mit.edu
  7. Sender: fpst@hubcap.clemson.edu (Steve Stevenson)
  8. Organization: Cornell Univ. CS Dept, Ithaca NY 14853
  9. Date: Sat, 9 Jan 1993 19:03:54 GMT
  10. Approved: parallel@hubcap.clemson.edu
  11. Lines: 25
  12.  
  13.  
  14. I have seen two definitions of "parallel efficiency" in the literature,
  15. and I am wondering whether one definition or the other has prevailed.
  16. They are:
  17.  
  18. (1) par eff = (seq. time of the par. algorithm) / (p * parallel time)
  19.  
  20. (2) par eff = (seq. time of the best possible sequential algorithm
  21.                for the problem) / (p * parallel time)
  22.  
  23. If you had a parallel cyclic reduction algorithm, would you rate it
  24. against a sequential cyclic reduction algorithm or against tridiagonal
  25. Cholesky factorization?
  26.  
  27. How about when the underlying problem is more complicated, for example
  28. solving a boundary value problem?  In this case it's not clear how to
  29. identify the best possible sequential algorithm.
  30.  
  31. I would like to get this definition straight because I am teaching a
  32. class on parallelism.
  33.  
  34. Thanks,
  35. Steve Vavasis
  36. vavasis@cs.cornell.edu
  37.  
  38.