home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #31 / NN_1992_31.iso / spool / comp / parallel / 2775 < prev    next >
Encoding:
Text File  |  1992-12-21  |  4.6 KB  |  104 lines

  1. Newsgroups: comp.parallel
  2. Path: sparky!uunet!cs.utexas.edu!qt.cs.utexas.edu!yale.edu!spool.mu.edu!sdd.hp.com!ncr-sd!ncrcae!hubcap!fpst
  3. From: Steven Ericsson Zenith <zenith@kai.com>
  4. Subject: Re: Linda / The Parform 
  5. Message-ID: <1992Dec21.132725.23905@hubcap.clemson.edu>
  6. Sender: zenith@kai.com
  7. Organization:     Kuck and Associates, Inc.
  8.         1906 Fox Drive, Champaign IL USA 61820-7334,
  9.         voice 217-356-2288, fax 217-356-5199
  10. Date: Fri, 18 Dec 92 14:10:14 -0600
  11. Approved: parallel@hubcap.clemson.edu
  12. Lines: 90
  13.  
  14.  
  15. I find these numbers difficult to believe.
  16.  
  17.      >  Procs  POSYBL    SCA linda    PVM    MC-2    The Parform
  18.      >    1    1370.6    1370.6         1370.6     --    1370.6 (1.0)*
  19.      >    2     737.2     662.2         648.0     --     654.8 (2.1)
  20.      >    4     442.6     342.6         328.0     921.4     332.3 (4.1)
  21.      >    6     339.3     235.5         219.0     618.5     221.7 (6.2)
  22.      >    8     284.6     175.8         168.4     466.7     170.2 (8.0)
  23.      >   10     260.2     144.3         143.6     376.6     137.4 (10.0)
  24.      >   12     244.7     122.1         116.6     318.2     116.0 (11.8)
  25.      >   14     242.7     104.5         100.1     276.2     103.5 (13.5)
  26.      >   16     239.5      92.8           90.0     240.0      89.0 (15.4)
  27.      >   18     242.6      84.5          97.5     215.9      80.9 (16.9)
  28.      >   20     241.6      76.0          85.8     196.6      73.5 (18.7)
  29.      >   22           71.5          68.5     182.8      67.5 (20.3)
  30.      >   24          66.5          63.6     170.9      62.5 (21.9)
  31.      >   26          63.1          60.5     160.9      58.6 (23.4)
  32.      >   28          58.5          56.7     151.9      55.8 (24.7)
  33.      >   30          55.1          53.5     144.7       53.0 (25.9)
  34.      >   32          54.0          54.0     138.5      51.0 (26.9)
  35.      >   34          52.4          54.0          50.8 (27.0)
  36.      >   36          51.4          52.0          48.5 (28.3)
  37.      >   38          51.3          54.0          48.4 (28.3)
  38.      >   40                  52.9          47.2 (29.0)
  39.      > 
  40.      >    * speedup in parentheses
  41.  
  42. Firstly, bells start ringing for the single processor case.  Why?
  43. Because they are all the same and to my knowledge these systems don't
  44. all use the same compiler.  I expect to see some variation.
  45. No indication is given of what the 1 processor time means - is this the
  46. sequential execution time under the respective system compiler?  It
  47. should be. The above numbers can only begin to make sense if the base
  48. compiler *is* the same in all cases - otherwise we do not know what we
  49. are comparing.
  50.  
  51. I would like to see the superlinear speed up explained. It's difficult
  52. to assess without a detailed description of the hardware, operating
  53. system infrastructure, etc.. 
  54.  
  55. Since this problem is obviously more than embarrassingly parallel I'd
  56. like to know how much, if any, of the interaction mechanism was used
  57. during computation. If the answer is, as I suspect, that after the data
  58. and work distribution, insignificant interaction took place then the
  59. above tells us something about the parallel decomposition of the problem
  60. but sweet Fanny Adams about any of the systems tested.
  61.  
  62. What was measured here? Does the clock start before or after
  63. distribution of the data set and processes?
  64.  
  65. I know people love to see numbers like this, it makes them feel cosy and
  66. all warm inside but most such statistics - in this particular area and
  67. that I've seen - belong in the marketing department.
  68.  
  69. Here's a test that might tell you something about each of the systems:
  70. using the same base compiler, hardware and operating system plus a
  71. library implementing each model tell me (scaling over the same number of
  72. processors shown above) the execution times taken to perform a 1024x1024
  73. matrix transpose where each element of the matrix is a double float
  74. assigned the value of its initial index.  ;-) ( <- wicked grin). A
  75. second test is to do the above and print the before and after result ;-)
  76. (( <- a double wicked grin).
  77.  
  78. And even if you did this, unless you can show that the implementations
  79. are truely comparable, (i.e., they use the same implementation
  80. techniques and infrastructure) it will not tell you anything about the
  81. model's performance. That leaves you with a serious logistical problem -
  82. one I had to confront and failed to fund in the Ease work - you have to
  83. personally undertake the implementation of each model in a uniform (dare
  84. I say "scientific") way - any other comparison is meaningless.
  85.  
  86. One qualitative - and alas subjective - comparison can be made without
  87. execution. That is to look at the expressiveness of the solution. And no
  88. matter how I may criticize Linda's other idiosyncrasies (Who me?),
  89. "Message Passing Style" sucks in this respect for any nontrival problem.
  90.  
  91.      >  -------------------------------------------------------------------
  92.      >  Clemens Cap                email: cap@ifi.unizh.ch
  93.      >  Volker Strumpen                        email: strumpen@ifi.unizh.ch
  94.  
  95. Steven Ericsson Zenith
  96. --
  97. Steven Ericsson Zenith
  98. Disclaimer: Opinions expressed are my own and not necessarily those of KAI.
  99.  
  100.  
  101.  
  102.  
  103.  
  104.