home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #31 / NN_1992_31.iso / spool / comp / parallel / 2805 < prev    next >
Encoding:
Text File  |  1992-12-28  |  9.0 KB  |  167 lines

  1. Newsgroups: comp.parallel
  2. Path: sparky!uunet!gumby!destroyer!gatech!hubcap!fpst
  3. From: cap@ifi.unizh.ch (Clemens Cap)
  4. Subject: Re: Linda / The Parform 
  5. Message-ID: <1992Dec23.220706.8281@ifi.unizh.ch>
  6. Followup-To: poster
  7. Sender: cap@ifi.unizh.ch
  8. Organization: University of Zurich, Department of Computer Science
  9. References: <1992Dec21.132725.23905@hubcap.clemson.edu>
  10. Date: Wed, 23 Dec 92 22:07:06 GMT
  11. Approved: parallel@hubcap.clemson.edu
  12. Lines: 153
  13.  
  14.  
  15. Some days ago, Volker Strumpen and I posted a message to inform all interested
  16. scientists who had followed that thread on the final results of our measurements
  17. with parallel programming platforms. There was a reply by Steven Ericsson who
  18. obviously did not know, that we had spent several months with getting all
  19. details of those measurements right and that some 80 emails were exchanged with
  20. a number of computer science departments to obtain fair and correct data
  21. under reproduceable conditions.  
  22.  
  23. Of course we did a larger number of measurements and made extensive
  24. statistics, took care of compiler versions and options, carefully chose our
  25. benchmarking problem, discussed those issues with people who are longer in
  26. the field doing better research than we do, of coures we gave a number of talks
  27. on the subject and spent days discussing the issue, of course we know, why we 
  28. obtained superlinear speed up, of course...
  29.  
  30. Well, I guess we should have mentioned this more explicitely in our posting.
  31. Nevertheless we mentioned our old report, where some of the open questions are
  32. adressed, and we also mentioned a forthcoming publication, which will hopefully
  33. answer the questions that still remained unanswered in the old version. Following
  34. standard etiquette we should be able to provide a precise reference for the new
  35. version soon, but we will not compromise journal copyright by downloading ftp versions.
  36. We are aware of some aspects which are not adressed in the best way in
  37. the old report, these problems should be solved in the publication.
  38.  
  39. Usenet groups are an interesting medium for discussion. Thank you to all collegues that
  40. responded to our original posting some months ago and that shared their experiences
  41. and their knowledge with us via email. This significantly helped us with our research.
  42. Occasionally postings by Mr. This_is_all_wrong_since_I_know_it_better join the thread
  43. providing for some late night amusement in front of the workstation. Therefore also
  44. these postings help one's research. 
  45.  
  46. In article <1992Dec21.132725.23905@hubcap.clemson.edu> Steven Ericsson Zenith <zenith@kai.com> writes:
  47.  
  48. >I find these numbers difficult to believe.
  49.  
  50. Initially we found those numbers hard to believe, too. It's just what we kept
  51. measuring.
  52.  
  53. >Firstly, bells start ringing for the single processor case.  Why?
  54. >Because they are all the same and to my knowledge these systems don't
  55. >all use the same compiler.  I expect to see some variation.
  56. >No indication is given of what the 1 processor time means - is this the
  57. >sequential execution time under the respective system compiler?  It
  58. >should be. The above numbers can only begin to make sense if the base
  59. >compiler *is* the same in all cases - otherwise we do not know what we
  60. >are comparing.
  61.  
  62. As written in our report, all platforms use the C language and C compiler
  63. with identical compiler options, apart of course of system specific enhancements. 
  64. For the single processor case it is easy to design a conditional statement, which
  65. skips the communication part of the program.
  66. Therefore it is reasonable to expect identical execution times.
  67.  
  68. >I would like to see the superlinear speed up explained. It's difficult
  69. >to assess without a detailed description of the hardware, operating
  70. >system infrastructure, etc.. 
  71.  
  72. This is correct and therefore there is a long list of used equipment including
  73. the versions of all platforms in the forthcoming publication.
  74. There are several plausible reasons for superlinear speedup (cache, swapping and
  75. paging). I will not adress this in detail here, it can be found in the report and
  76. the publication. Furthermore it has been measured and confirmed by a number of additional
  77. test not explicitely mentioned in the paper and the publication.
  78.  
  79. >Since this problem is obviously more than embarrassingly parallel I'd
  80. >like to know how much, if any, of the interaction mechanism was used
  81. >during computation. If the answer is, as I suspect, that after the data
  82. >and work distribution, insignificant interaction took place then the
  83. >above tells us something about the parallel decomposition of the problem
  84. >but sweet Fanny Adams about any of the systems tested.
  85.  
  86. It might be interesting to know, that the insignificant interaction, as described
  87. in our old and new report, was as low as 6MBit per second through a standard 10Mbitps
  88. Ethernet. Usually 3MBit per second already is considered as a highly loaded
  89. Ethernet. Please inform Fanny Adams about that. 
  90.  
  91. Since we wanted to study dynamic load balancing, we needed a problem with tight subtask
  92. synchronisation. We furthermore wanted to evaluate the network bandwidth. A precise
  93. evaluation of overheads is only possible, when you know the speedup the application
  94. should have without any communication and administration. For this and other reasons
  95. we chose an explicit heat equation solver. A choice upon which the director of a
  96. major national computing center hosting also Cray equipment commented "Just the right
  97. problem for those goals." Of course we know, that this approach to the heat equation
  98. has some numerical and physical problems. But it provides loads of the type we wanted to study.
  99.  
  100.  
  101. >What was measured here? Does the clock start before or after
  102. >distribution of the data set and processes?
  103.  
  104. We measured wall clock time on a dedicated system measuring the computational phase
  105. of the problem. Our old report mentions the general setup of the experiment, the
  106. publication even reports the precise type of every single employed machine. Data
  107. distribution consisted of distributing initial conditions of a heat equation. This
  108. is no problem, since often initial conditions are given as coded functions or are
  109. found on files. In our measurement this kind of data distribution you mention is of
  110. negligable importance.
  111.  
  112. >I know people love to see numbers like this, it makes them feel cosy and
  113. >all warm inside but most such statistics - in this particular area and
  114. >that I've seen - belong in the marketing department.
  115.  
  116. This is the usual problem when you buy a computer and ask the salesman for the
  117. MIPS (= meaningless instrument for pushing sales). This is not the usual situation
  118. when doing research. And this is comp.parallel not comp.marketing. 
  119.  
  120. >Here's a test that might tell you something about each of the systems:
  121. >using the same base compiler, hardware and operating system plus a
  122. >library implementing each model tell me (scaling over the same number of
  123. >processors shown above) the execution times taken to perform a 1024x1024
  124. >matrix transpose where each element of the matrix is a double float
  125. >assigned the value of its initial index.  ;-) ( <- wicked grin). A
  126. >second test is to do the above and print the before and after result ;-)
  127. >(( <- a double wicked grin).
  128.  
  129. Yes, of course, we faked the measurements, we used different compilers and
  130. different compiler switches just for the fun of it all.
  131. (:^%  (Not so very funny grin)
  132.  
  133. >And even if you did this, unless you can show that the implementations
  134. >are truely comparable, (i.e., they use the same implementation
  135. >techniques and infrastructure) it will not tell you anything about the
  136. >model's performance. That leaves you with a serious logistical problem -
  137. >one I had to confront and failed to fund in the Ease work - you have to
  138. >personally undertake the implementation of each model in a uniform (dare
  139. >I say "scientific") way - any other comparison is meaningless.
  140.  
  141. I did not fail to fund this work. I get enough payment by the industrial sponsor
  142. for being able to rise enough manpower for precisely this work. We get enough 
  143. support by our department and by the technical staff to be able to use the
  144. infrastructure fully dedicated - no one is working with the 40 machines
  145. when we do our measurements, no screenlock is running, everybody is logged out and
  146. there are no dumps going on. We even used an oscilloscope and a special Ethernet
  147. monitoring equipment during parts of our work, in order to understand various
  148. effects.
  149. It is correct, that this IS a logistical problem. And this is the reason why 
  150. Volker invested several months for solving this problem. I learned from earlier
  151. postings, in which I was in error myself, that one has to read an article and to
  152. do ones homework before hitting the Followup button of the newsreader.
  153.  
  154. I hope those comments clarify some of the open questions and I apologize for
  155. the lack of detail in our previous posting. We just did not want to post our
  156. both entire papers.
  157.  
  158. Happy Xmas.
  159.  
  160.  
  161. -- 
  162. * Dr. Clemens H. CAP                        cap@ifi.unizh.ch (email)   
  163. * Ass. Professor for Formal Methods in CS   +(1) 257-4326    (office)
  164. * Dept. of Computer Science                 +(1) 322 02 19   (home)
  165. * University of Zurich                      +(1) 363 00 35   (fax) 
  166.  
  167.