home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #27 / NN_1992_27.iso / spool / comp / benchmar / 1700 < prev    next >
Encoding:
Text File  |  1992-11-15  |  34.2 KB  |  858 lines

  1. Newsgroups: comp.benchmarks
  2. Path: sparky!uunet!zaphod.mps.ohio-state.edu!cs.utexas.edu!sun-barr!ames!data.nas.nasa.gov!amelia.nas.nasa.gov!eugene
  3. From: eugene@amelia.nas.nasa.gov (Eugene N. Miya)
  4. Subject: [l/m 10/28/92] SPEC info sources    (16/28) c.be. FAQ
  5. Keywords: who, what, where, when, why, how
  6. Sender: news@nas.nasa.gov (News Administrator)
  7. Organization: NAS Program, NASA Ames Research Center, Moffett Field, CA
  8. Date: Mon, 16 Nov 92 12:25:12 GMT
  9. Message-ID: <1992Nov16.122512.19272@nas.nasa.gov>
  10. Reply-To: eugene@amelia.nas.nasa.gov (Eugene N. Miya)
  11. Lines: 845
  12.  
  13. 16    SPEC                    <This panel>
  14. 17    Benchmark invalidation methods
  15. 18
  16. 19    WPI Benchmark
  17. 20    Equivalence
  18. 21    TPC
  19. 22
  20. 23
  21. 24
  22. 25    Ridiculously short benchmarks
  23. 26    Other miscellaneous benchmarks
  24. 27
  25. 28    References
  26. 1    Introduction to the FAQ chain and netiquette
  27. 2
  28. 3    PERFECT Club
  29. 4
  30. 5    Performance Metrics
  31. 6
  32. 7    Music to benchmark by
  33. 8    Benchmark types
  34. 9    Linpack
  35. 10
  36. 11    NIST source and .orgs
  37. 12    Measurement Environments
  38. 13    SLALOM
  39. 14
  40. 15    12 Ways to Fool the Mass with Benchmarks
  41.  
  42. Contents:
  43. 1. What is SPEC
  44. 2. How to Contact SPEC
  45. 3. Current SPEC Benchmarks
  46. 3.1 CPU Benchmarks
  47. 3.2 SDM Benchmarks
  48. 4. Outdated SPEC Benchmarks
  49. 5. Forthcoming SPEC Benchmarks
  50. 6. SPEC's Products and Services
  51. 7. Membership in SPEC
  52.  
  53.  
  54. 1. What is SPEC
  55. ===============
  56.  
  57. SPEC, the System Performance Evaluation Cooperative, is a non-profit
  58. corporation formed to "establish, maintain and endorse a standardized
  59. set of relevant benchmarks that can be applied to the newest
  60. generation of high-performance computers". The founders of this
  61. organization believe that the user community will benefit greatly
  62. from an objective series of applications-oriented tests, which can
  63. serve as common reference points and be considered during the
  64. evaluation process. While no one benchmark can fully characterize
  65. overall system performance, the results of a variety of realistic
  66. benchmarks can give valuable insight into expected real performance.
  67.  
  68. The members of SPEC are currently: Apple, AT&T/NCR, Bull, Compaq,
  69. Control Data, Data General, DEC, Fujitsu, Hewlett-Packard, IBM,
  70. Intel, Intergraph, MIPS [as of Newsletter 4/3. Still true?],
  71. Motorola, NeXt, Prime, Siemens Nixdorf, Silicon Graphics, Solbourne,
  72. Sun, Unisys.
  73.  
  74. SPEC Associates are currently: Institute for Precision Mechanics and
  75. Computing Equipment of the Russian Academy of Sciences, Leibniz
  76. Computing Center of the Bavarian Academy of Science, National Taiwan
  77. University.
  78.  
  79. Legally, SPEC is a non-profit coporation (legal name: Standard
  80. Performance Evaluation Corporation) registered in California.
  81.  
  82. SPEC basically does 2 things:
  83.  
  84. - It puts together suites of benchmarks that are generally available
  85.   in source form. These benchmarks are intended to measure something
  86.   meaningful and are extensively tested for portability before
  87.   release. There are strict rules on how these benchmarks must be run
  88.   and how results must be reported. SPEC members and customers
  89.   (buyers of the SPEC tapes) are required by the SPEC license to
  90.   follow these rules.
  91.  
  92. - It publishes SPEC benchmark results in a quarterly publication, the
  93.   SPEC Newsletter. SPEC member companies and licensees of the SPEC
  94.   benchmarks can publish results elsewhere also; however, past
  95.   experience has shown that at least the SPEC member companies always
  96.   use the SPEC Newsletter. Results published elsewhere must still
  97.   contain the same complete information as results published in the
  98.   Newsletter.
  99.  
  100.  
  101. 2. How to Contact SPEC
  102. ======================
  103.  
  104.     SPEC [Systems Performance Evaluation Corporation]
  105.     c/o NCGA [National Computer Graphics Association]
  106.     2722 Merrilee Drive
  107.     Suite 200
  108.     Fairfax, VA 22031
  109.     USA
  110.  
  111.     Phone:  +1-703-698-9600 Ext. 318
  112.     FAX:    +1-703-560-2752
  113.     E-Mail: spec-ncga@cup.portal.com
  114.  
  115. For technical questions regarding the SPEC benchmarks (e.g., problems
  116. with execution of the benchmarks), Dianne Dean (she is the person
  117. normally handling SPEC matters at NCGA) refers the caller to an
  118. expert at a SPEC member company.
  119.  
  120.  
  121. 3. Current SPEC Benchmarks
  122. ==========================
  123.  
  124. 3.1 CPU Benchmarks
  125. ==================
  126.  
  127. There are currently two suites of compute-intensive SPEC benchmarks,
  128. measuring the performance of CPU, memory system, and compiler code
  129. generation. They use UNIX as the portability vehicle, but the
  130. percentage of time spent in operating system and I/O functions is
  131. generally negligible.
  132.  
  133. CINT92, current release: Rel. 1.1
  134. ---------------------------------
  135.  
  136. This suite contains 6 benchmarks performing integer computations,
  137. all of them are written in C. The individual programs are:
  138.  
  139. Number and name  Area                       Approx. size
  140.                                             gross   net
  141.  
  142. 008.espresso     Circuit Theory             14800   11000
  143. 022.li           LISP interpreter            7700    5000
  144. 023.eqntott      Logic Design                3600    2600
  145. 026.compress     Data Compression            1500    1000
  146. 072.sc           Spreadsheet Calculator      8500    7100
  147. 085.gcc          GNU C Compiler             87800   58800
  148.                                            ------   -----
  149.                                            123900   85500
  150.  
  151. The approximate static size is given in numbers of source code lines,
  152. including declarations (header files). "Gross" numbers include
  153. comments and blank lines, "net" numbers exclude them.
  154.  
  155. CFP92, current release: Rel. 1.1
  156. --------------------------------
  157.  
  158. This suite contains 14 benchmarks performing floating-point
  159. computations. 12 of them are written in Fortran, 2 in C. The
  160. individual programs are:
  161.  
  162. Number and name  Area                       Lang.   Approx. size
  163.                                                     gross   net
  164.  
  165. 013.spice2g6     Circuit Design             F       8900
  166. 015.doduc        Monte Carlo Simulation     F       5300
  167. 034.mdljdp2      Quantum Chemistry          F       4500
  168. 039.wave5        Maxwell's Equation         F       7600
  169. 047.tomcatv      Coordinate Translation     F        200
  170. 048 ora          Optical Ray Tracing        F        500
  171. 052.alvinn       Robotics                   C        300     200
  172. 056.ear          Medical Modeling           C       5200    3300
  173. 077.mdljsp2      Quantum Chemistry          F       3900
  174. 089.su2cor       Quantum Physics            F       2500
  175. 090.hydro2d      Astrophysics               F       4500
  176. 093.nasa7        NASA Kernels               F       1300
  177. 094.fpppp        Quantum Chemistry          F       2700
  178.                                                    -----
  179.                                                    57400
  180.  
  181. More information about the individual benchmarks is contained in
  182. description files in each benchmark's subdirectory on the SPEC
  183. benchmark tape.
  184.  
  185. The CPU benchmarks can be used for measurement in two ways:
  186. - Speed measurement
  187. - Throuput measurement
  188.  
  189. Speed Measurement
  190. -----------------
  191.  
  192. The results ("SPEC Ratio" for each individual benchmark) are
  193. expressed as the ratio of the wall clock time to execute one single
  194. copy of the benchmark, compared to a fixed "SPEC reference time"
  195. (which was chosen early-on as the execution time on a VAX 11/780).
  196.  
  197. As is apparent from results publications, the different SPEC ratios
  198. for a given machine can vary widely. SPEC encourages the public to
  199. look at the individual results for each benchmarks; users should
  200. compare the characteristics of their workload with that of the
  201. individual SPEC benchmarks and consider those benchmarks that
  202. best approximate their jobs. However, SPEC also recognizes the
  203. demand for aggregate result numbers and has defined the integer
  204. and floating-point averages
  205.  
  206.   SPECint92 = geometric average of the 6 SPEC ratios from CINT92
  207.   SPECfp92  = geometric average of the 14 SPEC ratios from CFP92
  208.  
  209. Throughput Measurement
  210. -----------------------
  211.  
  212. With this measurement method, called the "homogenuous capacity
  213. method", several copies of a given benchmark are executed; this
  214. method is particularly suitable for multiprocessor systems. The
  215. results, called SPEC rate, express how many jobs of a particular type
  216. (characterized by the individual benchmark) can be executed in a
  217. given time (The SPEC reference time happens to be a week, the
  218. execution times are normalized with respect to a VAX 11/780). The
  219. SPEC rates therefore characterize the capacity of a system for
  220. compute-intensive jobs of similar characteristics.
  221.  
  222. Similar as with the speed metric, SPEC has defined averages
  223.  
  224.   SPECrate_int92 = geometric average of the 6 SPEC rates from CINT92
  225.   SPECrate_fp92  = geometric average of the 14 SPEC rates from CFP92
  226.  
  227. Because of the different units, the values SPECint92/SPECfp92 and
  228. SPECrate_int92/SPECrate_fp92 cannot be compared directly.
  229.  
  230. No more SPECmark computation
  231. ----------------------------
  232.  
  233. While the old average "SPECmark[89]" has been popular with the
  234. industry and the press (see section 4: Oudated SPEC Benchmarks), SPEC
  235. has intentionally *not* defined an average "SPECmark92" over all
  236. CPU benchmarks of the 1992 suites, for the following reasons:
  237.  
  238. - With 6 integer and 14 floating-point benchmarks, the average would
  239.   be biased too much towards floating-point,
  240. - Customers' workloads are different, some integer-only, some
  241.   floating-point intensive, some mixed,
  242. - Current processors have developed their strengths in a more diverse
  243.   way (some more emphasizing integer performance, some more floating-
  244.   point performance) than in 1989.
  245.  
  246.  
  247. 3.2 SDM Benchmarks
  248. ==================
  249.  
  250. SDM stands for "Systems Development Multiuser"; the two benchmarks in
  251. this suite (current release: 1.1) characterize the capacity of a
  252. system in a multiuser UNIX environment. Contrary to the CPU
  253. benchmarks, the SDM benchmarks contain UNIX shell scripts (consisting
  254. of commands like "cd", "mkdir", "find", "cc", "nroff", etc.) that
  255. exercise the operating system as well as the CPU and I/O components
  256. of the system. The workloads of the benchmarks are intended to
  257. represent UNIX software development environments.
  258.  
  259. For each benchmark, throughput numbers (scripts, i.e. simulated user
  260. loads per hour) are given for several values of concurrent workloads.
  261. The reader can determine the peak throughput as well as the ability
  262. of a system to sustain throughput over a range of concurrent
  263. workloads. Since the workloads for the two benchmarks (057.sdet,
  264. 061.kenbus1) are different, the throughput values for different
  265. benchmarks cannot be compared.
  266.  
  267.  
  268. 4. Outdated SPEC Benchmarks
  269. ===========================
  270.  
  271. SPEC has published the first CPU benchmark suite in 1989, the current
  272. release of it is 1.2b. It contains 10 compute-intensive programs, 4
  273. integer (written in C) and 6 floating-point (written in Fortran). The
  274. following average values had been defined:
  275.  
  276.   SPECint89  = geometric average of the SPEC ratios of the 4 integer
  277.                  programs in rel. 1.2b (CPU-Suite of 1989)
  278.   SPECfp89   = geometric average of the SPEC ratios of the 6
  279.                  floating-point programs in rel. 1.2b
  280.   SPECmark89 = geometric average of all 10 SPEC ratios of the
  281.                  programs in rel. 1.2b
  282.  
  283. In addition, there was the possibility of throughput measurements,
  284. with 2 copies of a benchmark running per CPU, called "Thruput Method
  285. A" (There was never a "Method B"). The following average values had
  286. been defined:
  287.  
  288.   SPECintThruput89 = geometric average of the Thruput Ratios of the
  289.                       4 integer programs
  290.   SPECfpThruput89 = geometric average of the Thruput Ratios of the
  291.                       6 floating-point programs
  292.   SPECThruput89 ("aggregate thruput") = geometric average of the
  293.                       Thruput Ratios of all 10 programs
  294.  
  295. SPEC now discourages use of the 1989 benchmark suite and recommends
  296. use of the CINT92 and CFP92 suites, for the following reasons:
  297.  
  298. - The new suites cover a wider area of programs (20 programs instead
  299.   of 10),
  300. - The execution times for some of the old benchmarks became too short
  301.   on today's fast machines, with the danger of timing inaccuracies,
  302. - Input files have now been provided for most benchmarks in the 1992
  303.   suites, eliminating the danger of unintended compiler optimizations
  304.   (constant propagation),
  305. - The new suites do no longer contain a benchmark (030.matrix300)
  306.   that was too much influenced by a particular compiler optimization.
  307.   This optimization, while legal and a significant step in compiler
  308.   technology (it is still often used with the benchmarks of 1992),
  309.   inflated the SPEC ratio for this benchmark since it executed only
  310.   code susceptible to this optimization.
  311.  
  312. However, SPEC is aware of the fact that results with the old
  313. benchmark suite will still be quoted for a while and used for
  314. comparison purposes.
  315.  
  316. SPEC will discontinue sales of Rel. 1.2b tapes in Januar 1993 and
  317. discontinue result publications for it in June 1993.
  318.  
  319.  
  320. 5. Forthcoming SPEC Benchmarks
  321. ==============================
  322.  
  323. SPEC is currently working on an NFS benchmark, also known as the
  324. LADDIS benchmark, measuring the performance of network file servers
  325. that follow the NFS protocol. Release of this benchmark is expected
  326. in March 1993. A beta test version ("pre-LADDIS") has been made
  327. available earlier to interested parties; however, SPEC explicitly
  328. disallowed use of pre-LADDIS results in company publications.
  329.  
  330. A number of other areas have been considered or are being considered
  331. by SPEC for future benchmark efforts:
  332. - I/O benchmarks
  333. - Client/Server benchmarks
  334. - RTE-based benchmarks
  335. - Commercial computing benchmarks
  336.  
  337. SPEC is always open to suggestions from the computing community for
  338. future benchmarking directions. Of course, SPEC even more welcomes
  339. proposals for actual programs that can be used as benchmarks.
  340.  
  341.  
  342. 6. SPEC Products and Services
  343. =============================
  344.  
  345. The SPEC benchmark sources are generally available, but not free.
  346. SPEC is charging separately for its benchmark suites; the income from
  347. the benchmark source tapes is intended to support the administrative
  348. costs of the corporation - making tapes, answering questions about the
  349. benchmarks, and so on. Buyers of the benchmark tapes have to sign a
  350. license stating the conditions of use (site license only) and the
  351. rules for result publications. All benchmark suites come on QIC 24
  352. tapes, written in UNIX tar format. Accredited universities receive a
  353. 50 % discount on SPEC tape products.
  354.  
  355. Current prices are: [Correct, Kaivalya?]
  356.  
  357. CINT92          $  425.00       $ 212.50
  358. CFP92           $  575.00       $ 287.50
  359. CINT92&CFP92    $  900.00       $ 450.00
  360. SDM             $ 1450.00       $ 725.00
  361. Release1.2b     $ 1000.00       $ 500.00
  362.  
  363. The SPEC Newsletter appears quarterly, it contains result
  364. publications for a variety of machines (typically, about 50-70 pages
  365. of result pages per issue) as well as articles dealing with SPEC
  366. and benchmarking.
  367.  
  368. Newsletter      $  550.00    (1 year subscription, 4 issues)
  369.  
  370. [Has the proposed reduction in newsletter subscription rates for
  371. educational institutions already been voted on by the board?]
  372.  
  373.  
  374. 7. Membership in SPEC
  375. =====================
  376.  
  377. The costs for SPEC membership are
  378.  
  379.   Annual Dues   $ 5000.00       Initiation Fee  $ 1000.00
  380.  
  381. There is also the category of a "SPEC Associate", intended for
  382. accredited educational institutions or non-profit organizations:
  383.  
  384.   Annual Dues   $ 1000.00       Initiation Fee  $  500.00
  385.  
  386. Associates have no voting privileges, otherwise they have the same
  387. benefits as SPEC members: Newsletters and benchmark tapes as they are
  388. available, with company-wide license. Probably more important are
  389. early access to benchmarks that are being developed, and the
  390. possibility to participate in the technical work on the benchmarks.
  391. The intention for associates is that they can act in an advisory
  392. capacity to SPEC, getting first-hand experience in an area that is
  393. widely neglected in academia but nethertheless very important in the
  394. "real world", and providing technical input to SPEC's task.
  395.  
  396. SPEC meetings are held about every six weeks, for technical work
  397. and decisions about the benchmarks. Every member or associate can
  398. participate and make proposals; decisions are made by a Steering
  399. Committee (9 members) elected by the general membership at the
  400. Annual Meeting. All members vote before a benchmark is finally
  401. accepted.
  402.  
  403.  
  404. 8. Acknowledgment
  405. =================
  406.  
  407. This summary of SPEC's activities has been written by Reinhold
  408. Weicker (Siemens Nixdorf). Portions of the text have been carried
  409. over from earlier Usenet postings (Answers to Frequently Asked
  410. Questions, No. 16: SPEC) by Eugene Miya (NASA Ames Research Center).
  411. Additional input has been provided by Jeff Reilly (Intel) and ...
  412.  
  413.  
  414.                    ^ A  
  415.                 s / \ r                
  416.                m /   \ c              
  417.               h /     \ h            
  418.              t /       \ i          
  419.             i /         \ t        
  420.            r /           \ e      
  421.           o /             \ c    
  422.          g /               \ t  
  423.         l /                 \ u
  424.        A /                   \ r
  425.         <_____________________> e   
  426.                 Language
  427.  
  428. From uucp@ztivax.zfe.siemens.de  Wed Nov 11 14:56:27 1992
  429. Received: from mail.Germany.EU.net by amelia.nas.nasa.gov (5.61/1.34)
  430.     id AA08142; Wed, 11 Nov 92 14:56:27 -0800
  431. Received: from zfe.siemens.de (ztivax.zfe.siemens.de)
  432.     by mail.Germany.EU.net with SMTP (5.65c/EUnetD-2.2.1.c)
  433.     via EUnet for amelia.nas.nasa.gov
  434.     id BG17276; Wed, 11 Nov 1992 17:00:31 +0100
  435. Received: by zfe.siemens.de (5.57/Ultrix3.0-C)
  436.     id AA15370; Wed, 11 Nov 92 17:00:28 +0100
  437. Received: from D255S066.os323 (D255S066) by tz14.stm.mchp.sni.de
  438.       at Wed, 11 Nov 92 16:54:30  +0100 (5.52.1/SIE-1.1) with SMTP
  439. Message-Id: <9211111554.AA03038@tz14.stm.mchp.sni.de>
  440. From: D255S066.os323!weicker@tz14.zfe.siemens.de
  441. Date: Wed, 11 Nov 92 16:57 MET
  442. To: eugene@amelia.nas.nasa.gov, jwreilly@mipos2.intel.com
  443. Cc: marekwia.pad@sni.de, spec-ncga@cup.portal.com, urban@athen.zfe.siemens.de,
  444.         walter.bays@eng.sun.com
  445. Subject: FAQ answers for Usenet
  446. Content-Type: text
  447. Content-Length: 17070
  448. Status: R
  449.  
  450. Hi Gene and Jeff,
  451.  
  452. With this mail, I send you the - for now - last version of the SPEC
  453. FAQ posting for Usenet. Can you please include it in your rolling
  454. scheme? Jeff will additionally post it on the first of each month,
  455. and write or coordinate updates.
  456.  
  457. There are only a few changes to the last version:
  458. - Update of the member and associate list according to Dianne's mail,
  459. - An additional sentence to warn about the difference between
  460.   pre-LADDIS and LADDIS,
  461. - I have moved the "For more questions, refer to ..." from the
  462.   beginning to the Acknowledgment section at the end and rephrased
  463.   it slightly, with the intention that questions should normally go
  464.   to NCGA.
  465.   Dianne, if you use the text for "official" e-mail answers, please
  466.   remove the last five lines; they are typical Usenet-style.
  467.  
  468. Reinhold
  469.  
  470. P.S. By the way, today's date as the last update is somewhat
  471. conspicuous, but only for Germans: 11/11, 11:11 hrs. is considered
  472. the official start of the carneval ("Fasching") season in Germany :-).
  473.  
  474. -----------------------------------------------------------------
  475.  
  476. The following text
  477.  
  478.   Answers to Frequently Asked Questions about SPEC Benchmarks
  479.  
  480. is updated regulary by active SPEC members. Last update: 11/11/1992.
  481.  
  482. Contents:
  483. 1. What is SPEC
  484. 2. How to Contact SPEC
  485. 3. SPEC's Products and Services
  486. 4. Current SPEC Benchmarks
  487. 4.1 CPU Benchmarks
  488. 4.2 SDM Benchmarks
  489. 5. Outdated SPEC Benchmarks
  490. 6. Forthcoming SPEC Benchmarks
  491. 7. Membership in SPEC
  492.  
  493.  
  494. 1. What is SPEC
  495. ===============
  496.  
  497. SPEC, the System Performance Evaluation Cooperative, is a non-profit
  498. corporation formed to "establish, maintain and endorse a standardized
  499. set of relevant benchmarks that can be applied to the newest
  500. generation of high-performance computers". The founders of this
  501. organization believe that the user community will benefit greatly
  502. from an objective series of applications-oriented tests, which can
  503. serve as common reference points and be considered during the
  504. evaluation process. While no one benchmark can fully characterize
  505. overall system performance, the results of a variety of realistic
  506. benchmarks can give valuable insight into expected real performance.
  507.  
  508. The members of SPEC are currently: Apple, AT&T/NCR, Bull, Compaq,
  509. Control Data, Data General, DEC, Fujitsu, Hal Computer,
  510. Hewlett-Packard, IBM, Intel, Intergraph, MIPS, Motorola, NeXT, Prime,
  511. Siemens Nixdorf, Silicon Graphics, Solbourne, Sun, Unisys.
  512.  
  513. SPEC Associates are currently: Leibniz Computing Center of the
  514. Bavarian Academy of Science, National Taiwan University, SERC
  515. Daresbury Laboratory.
  516.  
  517. Legally, SPEC is a non-profit coporation (legal name: Standard
  518. Performance Evaluation Corporation) registered in California.
  519.  
  520. SPEC basically doas 2 things:
  521.  
  522. - SPEC develops suites of fenchmarks intended to measure computer
  523.   performance. These suites are packaged with source code and tools
  524.   and are extensively tested for portability before release. They are
  525.   available to the public for a fee covering development and
  526.   administration costs. By license agreement, SPEC members and
  527.   customers agree to run and report results as specified in each
  528.   benchmark suite's documentation.
  529.  
  530. - SPEC publishes a quarterly report of SPEC news and benchmark
  531.   results: The SPEC Newsletter. This provides a centralized source of
  532.   information for SPEC benchmark results. Both SPEC members and
  533.   non-SPEC members may publish in the SPEC Newsletter, though there
  534.   is a fee for non-members. (Note that results may be published
  535.   elsewhere as long as the format specified in the SPEC Run Rules is
  536.   followed.)
  537.  
  538.  
  539. 2. How to Contact SPEC
  540. ======================
  541.  
  542.     SPEC [Systems Performance Evaluation Corporation]
  543.     c/o NCGA [National Computer Graphics Association]
  544.     2722 Merrilee Drive
  545.     Suite 200
  546.     Fairfax, VA 22031
  547.     USA
  548.  
  549.     Phone:  +1-703-698-9600 Ext. 318
  550.     FAX:    +1-703-560-2752
  551.     E-Mail: spec-ncga@cup.portal.com
  552.  
  553. For technical questions regarding the SPEC benchmarks (e.g., problems
  554. with execution of the benchmarks), Dianne Dean (she is the person
  555. normally handling SPEC matters at NCGA) refers the caller to an
  556. expert at a SPEC member company.
  557.  
  558.  
  559. 3. SPEC Products and Services
  560. =============================
  561.  
  562. The SPEC benchmark sources are generally available, but not free.
  563. SPEC is charging separately for its benchmark suites; the income from
  564. the benchmark source tapes is intended to support the administrative
  565. costs of the corporation - making tapes, answering questions about the
  566. benchmarks, and so on. Buyers of the benchmark tapes have to sign a
  567. license stating the conditions of use (site license only) and the
  568. rules for result publications. All benchmark suites come on QIC 24
  569. tapes, written in UNIX tar format. Accredited universities receive a
  570. 50 % discount on SPEC tape products.
  571.  
  572. Current prices are:
  573.  
  574.   CINT92          $  425.00
  575.   CFP92           $  575.00
  576.   CINT92&CFP92    $  900.00
  577.   SDM             $ 1450.00
  578.   Release1.2b     $ 1000.00
  579.  
  580. The SPEC Newsletter appears quarterly, it contains result
  581. publications for a variety of machines (typically, about 50-70 pages
  582. of result pages per issue) as well as articles dealing with SPEC
  583. and benchmarking.
  584.  
  585.   Newsletter      $  550.00    (1 year subscription, 4 issues)
  586.  
  587.  
  588. 4. Current SPEC Benchmarks
  589. ==========================
  590.  
  591. 4.1 CPU Benchmarks
  592. ==================
  593.  
  594. There are currently two suites of compute-intensive SPEC benchmarks,
  595. measuring the performance of CPU, memory system, and compiler code
  596. generation. They use UNIX as the portability vehicle, but the
  597. percentage of time spent in operating system and I/O functions is
  598. generally negligible.
  599.  
  600. CINT92, current release: Rel. 1.1
  601. ---------------------------------
  602.  
  603. This suite contains 6 benchmarks performing integer computations,
  604. all of them are written in C. The individual programs are:
  605.  
  606. Number and name  Area                       Approx. size
  607.                                             gross   net
  608.  
  609. 008.espresso     Circuit Theory             14800   11000
  610. 022.li           LISP interpreter            7700    5000
  611. 023.eqntott      Logic Design                3600    2600
  612. 026.compress     Data Compression            1500    1000
  613. 072.sc           Spreadsheet Calculator      8500    7100
  614. 085.gcc          GNU C Compiler             87800   58800
  615.                                            ------   -----
  616.                                            123900   85500
  617.  
  618. The approximate static size is given in numbers of source code lines,
  619. including declarations (header files). "Gross" numbers include
  620. comments and blank lines, "net" numbers exclude them.
  621.  
  622. CFP92, current release: Rel. 1.1
  623. --------------------------------
  624.  
  625. This suite contains 14 benchmarks performing floating-point
  626. computations. 12 of them are written in Fortran, 2 in C. The
  627. individual programs are:
  628.  
  629. Number and name  Area                       Lang.   Approx. size
  630.                                                     gross   net
  631.  
  632. 013.spice2g6     Circuit Design             F      18900   15000
  633. 015.doduc        Monte Carlo Simulation     F       5300    5300
  634. 034.mdljdp2      Quantum Chemistry          F       4500    3600
  635. 039.wave5        Maxwell's Equation         F       7600    6400
  636. 047.tomcatv      Coordinate Translation     F        200     100
  637. 048 ora          Optical Ray Tracing        F        500     300
  638. 052.alvinn       Robotics                   C        300     200
  639. 056.ear          Medical Modeling           C       5200    3300
  640. 077.mdljsp2      Quantum Chemistry          F       3900    3100
  641. 078.swm256       Shallow Water Model        F        500     300
  642. 089.su2cor       Quantum Physics            F       2500    1700
  643. 090.hydro2d      Astrophysics               F       4500    1700
  644. 093.nasa7        NASA Kernels               F       1300     800
  645. 094.fpppp        Quantum Chemistry          F       2700    2100
  646.                                                    -----   -----
  647.                                                    57900   43900
  648.  
  649. More information about the individual benchmarks is contained in
  650. description files in each benchmark's subdirectory on the SPEC
  651. benchmark tape.
  652.  
  653. The CPU benchmarks can be used for measurement in two ways:
  654. - Speed measurement
  655. - Throuput measurement
  656.  
  657. Speed Measurement
  658. -----------------
  659.  
  660. The results ("SPEC Ratio" for each individual benchmark) are
  661. expressed as the ratio of the wall clock time to execute one single
  662. copy of the benchmark, compared to a fixed "SPEC reference time"
  663. (which was chosen early-on as the execution time on a VAX 11/780).
  664.  
  665. As is apparent from results publications, the different SPEC ratios
  666. for a given machine can vary widely. SPEC encourages the public to
  667. look at the individual results for each benchmarks; users should
  668. compare the characteristics of their workload with that of the
  669. individual SPEC benchmarks and consider those benchmarks that
  670. best approximate their jobs. However, SPEC also recognizes the
  671. demand for aggregate result numbers and has defined the integer
  672. and floating-point averages
  673.  
  674.   SPECint92 = geometric average of the 6 SPEC ratios from CINT92
  675.   SPECfp92  = geometric average of the 14 SPEC ratios from CFP92
  676.  
  677. Throughput Measurement
  678. -----------------------
  679.  
  680. With this measurement method, called the "homogenuous capacity
  681. method", several copies of a given benchmark are executed; this
  682. method is particularly suitable for multiprocessor systems. The
  683. results, called SPEC rate, express how many jobs of a particular type
  684. (characterized by the individual benchmark) can be executed in a
  685. given time (The SPEC reference time happens to be a week, the
  686. execution times are normalized with respect to a VAX 11/780). The
  687. SPEC rates therefore characterize the capacity of a system for
  688. compute-intensive jobs of similar characteristics.
  689.  
  690. Similar as with the speed metric, SPEC has defined averages
  691.  
  692.   SPECrate_int92 = geometric average of the 6 SPEC rates from CINT92
  693.   SPECrate_fp92  = geometric average of the 14 SPEC rates from CFP92
  694.  
  695. Because of the different units, the values SPECint92/SPECfp92 and
  696. SPECrate_int92/SPECrate_fp92 cannot be compared directly.
  697.  
  698. No more SPECmark computation
  699. ----------------------------
  700.  
  701. While the old average "SPECmark[89]" has been popular with the
  702. industry and the press (see section 5: Oudated SPEC Benchmarks), SPEC
  703. has intentionally *not* defined an average "SPECmark92" over all CPU
  704. benchmarks of the 1992 suites, for the following reasons:
  705.  
  706. - With 6 integer and 14 floating-point benchmarks, the average would
  707.   be biased too much towards floating-point,
  708. - Customers' workloads are different, some integer-only, some
  709.   floating-point intensive, some mixed,
  710. - Current processors have developed their strengths in a more diverse
  711.   way (some more emphasizing integer performance, some more floating-
  712.   point performance) than in 1989.
  713.  
  714.  
  715. 4.2 SDM Benchmarks
  716. ==================
  717.  
  718. SDM stands for "Systems Development Multiuser"; the two benchmarks in
  719. this suite (current release: 1.1) characterize the capacity of a
  720. system in a multiuser UNIX environment. Contrary to the CPU
  721. benchmarks, the SDM benchmarks contain UNIX shell scripts (consisting
  722. of commands like "cd", "mkdir", "find", "cc", "nroff", etc.) that
  723. exercise the operating system as well as the CPU and I/O components
  724. of the system. The workloads of the benchmarks are intended to
  725. represent UNIX software development environments.
  726.  
  727. For each benchmark, throughput numbers (scripts, i.e. simulated user
  728. loads per hour) are given for several values of concurrent workloads.
  729. The reader can determine the peak throughput as well as the ability
  730. of a system to sustain throughput over a range of concurrent
  731. workloads. Since the workloads for the two benchmarks (057.sdet,
  732. 061.kenbus1) are different, the throughput values for different
  733. benchmarks cannot be compared.
  734.  
  735.  
  736. 5. Outdated SPEC Benchmarks
  737. ===========================
  738.  
  739. SPEC has published the first CPU benchmark suite in 1989, the current
  740. release of it is 1.2b. It contains 10 compute-intensive programs, 4
  741. integer (written in C) and 6 floating-point (written in Fortran). The
  742. following average values had been defined:
  743.  
  744.   SPECint89  = geometric average of the SPEC ratios of the 4 integer
  745.                  programs in rel. 1.2b (CPU-Suite of 1989)
  746.   SPECfp89   = geometric average of the SPEC ratios of the 6
  747.                  floating-point programs in rel. 1.2b
  748.   SPECmark89 = geometric average of all 10 SPEC ratios of the
  749.                  programs in rel. 1.2b
  750.  
  751. In addition, there was the possibility of throughput measurements,
  752. with 2 copies of a benchmark running per CPU, called "Thruput Method
  753. A" (There was never a "Method B"). The following average values had
  754. been defined:
  755.  
  756.   SPECintThruput89 = geometric average of the Thruput Ratios of the
  757.                       4 integer programs
  758.   SPECfpThruput89 = geometric average of the Thruput Ratios of the
  759.                       6 floating-point programs
  760.   SPECThruput89 ("aggregate thruput") = geometric average of the
  761.                       Thruput Ratios of all 10 programs
  762.  
  763. SPEC now discourages use of the 1989 benchmark suite and recommends
  764. use of the CINT92 and CFP92 suites, for the following reasons:
  765.  
  766. - The new suites cover a wider area of programs (20 programs instead
  767.   of 10),
  768. - The execution times for some of the old benchmarks became too short
  769.   on today's fast machines, with the danger of timing inaccuracies,
  770. - Input files have now been provided for most benchmarks in the 1992
  771.   suites, eliminating the danger of unintended compiler optimizations
  772.   (constant propagation),
  773. - The new suites do no longer contain a benchmark (030.matrix300)
  774.   that was too much influenced by a particular compiler optimization.
  775.   This optimization, while legal and a significant step in compiler
  776.   technology (it is still often used with the benchmarks of 1992),
  777.   inflated the SPEC ratio for this benchmark since it executed only
  778.   code susceptible to this optimization.
  779.  
  780. However, SPEC is aware of the fact that results with the old
  781. benchmark suite will still be quoted for a while and used for
  782. comparison purposes.
  783.  
  784. SPEC will discontinue sales of Rel. 1.2b tapes after December 1992
  785. and discontinue result publications for it after June 1993.
  786.  
  787.  
  788. 6. Forthcoming SPEC Benchmarks
  789. ==============================
  790.  
  791. SPEC is currently working on an NFS benchmark, also known as the
  792. LADDIS benchmark, measuring the performance of network file servers
  793. that follow the NFS protocol. Release of this benchmark is expected
  794. in March 1993. A beta test version ("pre-LADDIS") has been made
  795. available earlier to interested parties; however, SPEC explicitly
  796. disallowed the use of pre-LADDIS results in company publications.
  797. There have been significant changes between pre-LADDIS and the final
  798. version of LADDIS.
  799.  
  800. A number of other areas have been considered or are being considered
  801. by SPEC for future benchmark efforts:
  802. - I/O benchmarks
  803. - Client/Server benchmarks
  804. - RTE-based benchmarks
  805. - Commercial computing benchmarks
  806.  
  807. SPEC is always open to suggestions from the computing community for
  808. future benchmarking directions. Of course, SPEC even more welcomes
  809. proposals for actual programs that can be used as benchmarks.
  810.  
  811.  
  812. 7. Membership in SPEC
  813. =====================
  814.  
  815. The costs for SPEC membership are
  816.  
  817.   Annual Dues   $ 5000.00       Initiation Fee  $ 1000.00
  818.  
  819. There is also the category of a "SPEC Associate", intended for
  820. accredited educational institutions or non-profit organizations:
  821.  
  822.   Annual Dues   $ 1000.00       Initiation Fee  $  500.00
  823.  
  824. Associates have no voting privileges, otherwise they have the same
  825. benefits as SPEC members: Newsletters and benchmark tapes as they are
  826. available, with company-wide license. Probably more important are
  827. early access to benchmarks that are being developed, and the
  828. possibility to participate in the technical work on the benchmarks.
  829. The intention for associates is that they can act in an advisory
  830. capacity to SPEC, getting first-hand experience in an area that is
  831. widely neglected in academia but nethertheless very important in the
  832. "real world", and providing technical input to SPEC's task.
  833.  
  834. SPEC meetings are held about every six weeks, for technical work and
  835. decisions about the benchmarks. Every member or associate can
  836. participate and make proposals; decisions are made by a Steering
  837. Committee (9 members) elected by the general membership at the Annual
  838. Meeting. All members vote before a benchmark is finally accepted.
  839.  
  840.  
  841. 8. Acknowledgment
  842. =================
  843.  
  844. This summary of SPEC's activities has been written initially by
  845. Reinhold Weicker (Siemens Nixdorf). Portions of the text have been
  846. carried over from earlier Usenet postings (Answers to Frequently
  847. Asked Questions, No. 16: SPEC) by Eugene Miya (NASA Ames Research
  848. Center). Additional input has been provided by Jeff Reilly (Intel).
  849. This summary is regularly updated by Jeff Reilly and possibly other
  850. SPEC people.
  851.  
  852. Managerial and technical inquiries about SPEC should be directed
  853. to NCGA (see section 2). E-Mail questions that do not interfere
  854. too much with our real work :-) can also be mailed to
  855.     jwreilly@mipos2.intel.com       from North America
  856.     weicker@ztivax.zfe.siemens.de   from Europe or elsewhere
  857.  
  858.