home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #31 / NN_1992_31.iso / spool / comp / parallel / 2790 < prev    next >
Encoding:
Text File  |  1992-12-22  |  2.1 KB  |  51 lines

  1. Newsgroups: comp.parallel
  2. Path: sparky!uunet!gatech!hubcap!fpst
  3. From: kaminsky-david@CS.YALE.EDU (David Kaminsky)
  4. Subject: Re: Linda / The Parform
  5. Message-ID: <1992Dec21.205113.23801@hubcap.clemson.edu>
  6. Sender: fpst@hubcap.clemson.edu (Steve Stevenson)
  7. Organization: Yale University Computer Science Dept., New Haven, CT 06520-2158
  8. References: <1992Dec21.132725.23905@hubcap.clemson.edu>
  9. Date: 21 Dec 1992 15:42:31 -0500
  10. Approved: parallel@hubcap.clemson.edu
  11. Lines: 38
  12.  
  13. In article <1992Dec21.132725.23905@hubcap.clemson.edu> Steven Ericsson Zenith <z
  14. enith@kai.com> writes:
  15. >
  16. >I find these numbers difficult to believe.
  17. > ...
  18. >Firstly, bells start ringing for the single processor case.  Why?
  19. >Because they are all the same and to my knowledge these systems don't
  20. >all use the same compiler.  I expect to see some variation.
  21. >No indication is given of what the 1 processor time means - is this the
  22. >sequential execution time under the respective system compiler?  It
  23. >should be. The above numbers can only begin to make sense if the base
  24. >compiler *is* the same in all cases - otherwise we do not know what we
  25. >are comparing.
  26. >
  27.  
  28.     I think I can answer some of Steve's concerns.
  29.  
  30.         When evaluating parallel systems, honest speedup is measured
  31. against an optimized sequential code.  I believe that is what they
  32. have done.  (I worked with them in producing the Linda measurements.)
  33.  
  34. >Since this problem is obviously more than embarrassingly parallel I'd
  35. >like to know how much, if any, of the interaction mechanism was used
  36. >during computation. If the answer is, as I suspect, that after the data
  37. >and work distribution, insignificant interaction took place then the
  38. >above tells us something about the parallel decomposition of the problem
  39. >but sweet Fanny Adams about any of the systems tested.
  40. >
  41.  
  42.         The problem examined was an iterative heat diffusion code.
  43. The matrix is decomposed into blocks.  At each iteration, boundary
  44. data is exchanged between pairs processors holding adjacent blocks.
  45. The time measured was wallclock time.  For more information on the
  46. algorithm used, I'd recommend reading the paper.
  47.  
  48. David
  49.  
  50.  
  51.