home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #30 / NN_1992_30.iso / spool / comp / parallel / 2757 < prev    next >
Encoding:
Text File  |  1992-12-16  |  1.6 KB  |  40 lines

  1. Newsgroups: comp.parallel
  2. Path: sparky!uunet!zaphod.mps.ohio-state.edu!sdd.hp.com!ncr-sd!ncrcae!hubcap!fpst
  3. From: mlevin@husc8.harvard.edu (Michael Levin)
  4. Subject: how to split up task on CM-2 best?
  5. Message-ID: <1992Dec16.144500.18568@husc3.harvard.edu>
  6. Sender: fpst@hubcap.clemson.edu (Steve Stevenson)
  7. Nntp-Posting-Host: husc8.harvard.edu
  8. Organization: Harvard University Science Center
  9. Date: 16 Dec 92 14:44:58 EST
  10. Approved: parallel@hubcap.clemson.edu
  11. Lines: 27
  12.  
  13.  
  14.     I have a question on how best to organize a task which will run on
  15. the Connection Machine 2 (in C*). I am going to write a genetic
  16. algorithm. Thus, I will have to evaluate a whole bunch of functions, which
  17. can be done in parallel. However, the evaluation of each function
  18. involves computing something which can also be done in parallel very
  19. well (an operation on a large array of independent values). 
  20. Thus I have two independent loops, both of which can potentially be
  21. parallelized over all available processors (the external loop, and the
  22. one in the f() function):
  23.  
  24. for each formula,
  25.   result = f(array);
  26.  
  27. So, my choices in coding this thing to run on the CM-2 seem to be:
  28. 1) evaluate the functions in parallel - have each processor do the
  29. whole function evaluation by itself
  30. 2) do the computation in parallel - have the algorithm do each
  31. function one at a time, but do the computations in parallel
  32. 3) do them both in parallel
  33.    I know I can't get something for nothing, but maybe there are
  34. considerations of which I am not aware. Are there any benefits to
  35. following any of these strategies over the others, and if so, why?
  36. Please reply to mlevin@husc8.harvard.edu.
  37.  
  38. Mike Levin
  39.  
  40.