home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #31 / NN_1992_31.iso / spool / comp / parallel / 2787 < prev    next >
Encoding:
Text File  |  1992-12-22  |  2.9 KB  |  70 lines

  1. Newsgroups: comp.parallel
  2. Path: sparky!uunet!gatech!hubcap!fpst
  3. From: kaminsky-david@CS.YALE.EDU (David Kaminsky)
  4. Subject: Re: Linda / The Parform
  5. Message-ID: <1992Dec21.192950.15404@hubcap.clemson.edu>
  6. Sender: fpst@hubcap.clemson.edu (Steve Stevenson)
  7. Organization: Yale University Computer Science Dept., New Haven, CT 06520-2158
  8. References: <1992Dec17.191745.491@ifi.unizh.ch>
  9. Date: 21 Dec 1992 14:24:32 -0500
  10. Approved: parallel@hubcap.clemson.edu
  11. Lines: 57
  12.  
  13. > We have compared the open domain Linda implementation POSYBL with a
  14. > Transputer Multicluster, PVM and our platform The Parform. POSYBL turned
  15. > out to be clearly worse than the other systems. Thus, we concluded, that
  16. > the tuple space concept is inefficient.
  17.  
  18. > After time has passed now, we could make SCA-Linda measurements with an
  19. > explicit heat equation solver on a 2D grid in our network:
  20.  
  21.     I'd like to thank Volker and Clemens for posting this data.  It
  22. is informative to see a clear comparison of different models of
  23. parallelism.  As we've often argued, Linda is as efficient as message
  24. passing systems.  This data supports our view.
  25.  
  26. > For further information, we refer the reader to our old report, ftp-able
  27. > from claude.ifi.unizh.ch. An upgraded version will be published in near
  28. > future.
  29.  
  30.     I would also like to recommend this paper.  It contains some
  31. interesting work on automatic load balancing.
  32.  
  33. > This code is message passing code and not Linda flavored code. Runtimes
  34. > of a Linda flavored code were several times longer than the message
  35. > passing style code.
  36.  
  37.     I think this statement is misleading.  I examined the "Linda
  38. flavored" code.  It approaches a domain decomposition problem using
  39. dynamic tasking.  The worker process repeatedly grabs a column
  40. (or a block of columns), gets the columns bordering it, updates
  41. the column, and returns the column to tuple space.
  42.  
  43.     The fact that Linda makes it easy to write this sort of
  44. program doesn't mean that Linda programmers use this approach blindly
  45. without regard to the problem.  In this case, no decent Linda
  46. programmer would ever consider doing it this way.
  47.  
  48.     The proper way to write the code is to statically allocate
  49. blocks of the matrix to the workers and have the workers exchange
  50. border columns at each iteration.  This is the "message passing code"
  51. to which they refer.  
  52.  
  53.     Linda is a superset of message passing and, as this data
  54. demonstrates, no less efficient than message passing systems on
  55. message passing problems.  It can handle both message passing codes
  56. (as this one clearly is) and codes not easily handled by message
  57. passing systems (e.g. those containing shared variables).
  58. Characterizing a code as "linda flavored" or "message passing"
  59. shortchanges Linda's flexibility.
  60.  
  61.     For more information about Linda applications, I refer the
  62. reader to "Experience with Linda", Bjornson, et al. (YALEU/DCS/TR-866)
  63. and Rob Bjornson's Thesis (1992).  Both are available from Chris
  64. Hatchell (hatchell@cs.yale.edu).
  65.  
  66.  
  67.  
  68.  
  69.  
  70.