home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #30 / NN_1992_30.iso / spool / comp / benchmar / 1876 < prev    next >
Encoding:
Text File  |  1992-12-16  |  16.9 KB  |  433 lines

  1. Newsgroups: comp.benchmarks
  2. Path: sparky!uunet!think.com!ames!data.nas.nasa.gov!amelia.nas.nasa.gov!eugene
  3. From: eugene@amelia.nas.nasa.gov (Eugene N. Miya)
  4. Subject: [l/m 12/1/92] SPEC info sources    (16/28) c.be. FAQ
  5. Keywords: who, what, where, when, why, how
  6. Sender: news@nas.nasa.gov (News Administrator)
  7. Organization: NAS Program, NASA Ames Research Center, Moffett Field, CA
  8. Date: Wed, 16 Dec 92 12:25:10 GMT
  9. Message-ID: <1992Dec16.122510.18274@nas.nasa.gov>
  10. Reply-To: eugene@amelia.nas.nasa.gov (Eugene N. Miya)
  11. Lines: 420
  12.  
  13. 16    SPEC                    <This panel>
  14. 17    Benchmark invalidation methods
  15. 18
  16. 19    WPI Benchmark
  17. 20    Equivalence
  18. 21    TPC
  19. 22
  20. 23
  21. 24
  22. 25    Ridiculously short benchmarks
  23. 26    Other miscellaneous benchmarks
  24. 27
  25. 28    References
  26. 1    Introduction to the FAQ chain and netiquette
  27. 2
  28. 3    PERFECT Club
  29. 4
  30. 5    Performance Metrics
  31. 6
  32. 7    Music to benchmark by
  33. 8    Benchmark types
  34. 9    Linpack
  35. 10
  36. 11    NIST source and .orgs
  37. 12    Measurement Environments
  38. 13    SLALOM
  39. 14
  40. 15    12 Ways to Fool the Mass with Benchmarks
  41.  
  42.  
  43. Contents:
  44. 1. What is SPEC
  45. 2. How to Contact SPEC
  46. 3. SPEC's Products and Services
  47. 4. Current SPEC Benchmarks
  48. 4.1 CPU Benchmarks
  49. 4.2 SDM Benchmarks
  50. 5. Outdated SPEC Benchmarks
  51. 6. Forthcoming SPEC Benchmarks
  52. 7. Membership in SPEC
  53.  
  54.  
  55. 1. What is SPEC
  56. ===============
  57.  
  58. SPEC, the System Performance Evaluation Cooperative, is a non-profit
  59. corporation formed to "establish, maintain and endorse a standardized
  60. set of relevant benchmarks that can be applied to the newest
  61. generation of high-performance computers". The founders of this
  62. organization believe that the user community will benefit greatly
  63. from an objective series of applications-oriented tests, which can
  64. serve as common reference points and be considered during the
  65. evaluation process. While no one benchmark can fully characterize
  66. overall system performance, the results of a variety of realistic
  67. benchmarks can give valuable insight into expected real performance.
  68.  
  69. The members of SPEC are currently: Apple, AT&T/NCR, Bull, Compaq,
  70. Control Data, Data General, DEC, Fujitsu, Hal Computer,
  71. Hewlett-Packard, IBM, Intel, Intergraph, MIPS, Motorola, NeXT, Prime,
  72. Siemens Nixdorf, Silicon Graphics, Solbourne, Sun, Unisys.
  73.  
  74. SPEC Associates are currently: Leibniz Computing Center of the
  75. Bavarian Academy of Science, National Taiwan University, SERC
  76. Daresbury Laboratory.
  77.  
  78. Legally, SPEC is a non-profit coporation (legal name: Standard
  79. Performance Evaluation Corporation) registered in California.
  80.  
  81. SPEC basically does 2 things:
  82.  
  83. - SPEC develops suites of benchmarks intended to measure computer
  84.   performance. These suites are packaged with source code and tools
  85.   and are extensively tested for portability before release. They are
  86.   available to the public for a fee covering development and
  87.   administration costs. By license agreement, SPEC members and
  88.   customers agree to run and report results as specified in each
  89.   benchmark suite's documentation.
  90.  
  91. - SPEC publishes a quarterly report of SPEC news and benchmark
  92.   results: The SPEC Newsletter. This provides a centralized source of
  93.   information for SPEC benchmark results. Both SPEC members and
  94.   non-SPEC members may publish in the SPEC Newsletter, though there
  95.   is a fee for non-members. (Note that results may be published
  96.   elsewhere as long as the format specified in the SPEC Run Rules is
  97.   followed.)
  98.  
  99.  
  100. 2. How to Contact SPEC
  101. ======================
  102.  
  103.     SPEC [Systems Performance Evaluation Corporation]
  104.     c/o NCGA [National Computer Graphics Association]
  105.     2722 Merrilee Drive
  106.     Suite 200
  107.     Fairfax, VA 22031
  108.     USA
  109.  
  110.     Phone:  +1-703-698-9600 Ext. 318
  111.     FAX:    +1-703-560-2752
  112.     E-Mail: spec-ncga@cup.portal.com
  113.  
  114. For technical questions regarding the SPEC benchmarks (e.g., problems
  115. with execution of the benchmarks), Dianne Dean (she is the person
  116. normally handling SPEC matters at NCGA) refers the caller to an
  117. expert at a SPEC member company.
  118.  
  119.  
  120. 3. SPEC Products and Services
  121. =============================
  122.  
  123. The SPEC benchmark sources are generally available, but not free.
  124. SPEC is charging separately for its benchmark suites; the income from
  125. the benchmark source tapes is intended to support the administrative
  126. costs of the corporation - making tapes, answering questions about the
  127. benchmarks, and so on. Buyers of the benchmark tapes have to sign a
  128. license stating the conditions of use (site license only) and the
  129. rules for result publications. All benchmark suites come on QIC 24
  130. tapes, written in UNIX tar format. Accredited universities receive a
  131. 50 % discount on SPEC tape products.
  132.  
  133. Current prices are:
  134.  
  135.   CINT92          $  425.00
  136.   CFP92           $  575.00
  137.   CINT92&CFP92    $  900.00
  138.   SDM             $ 1450.00
  139.   Release1.2b     $ 1000.00
  140.  
  141. The SPEC Newsletter appears quarterly, it contains result
  142. publications for a variety of machines (typically, about 50-70 pages
  143. of result pages per issue) as well as articles dealing with SPEC
  144. and benchmarking.
  145.  
  146.   Newsletter      $  550.00    (1 year subscription, 4 issues)
  147.  
  148.  
  149. 4. Current SPEC Benchmarks
  150. ==========================
  151.  
  152. 4.1 CPU Benchmarks
  153. ==================
  154.  
  155. There are currently two suites of compute-intensive SPEC benchmarks,
  156. measuring the performance of CPU, memory system, and compiler code
  157. generation. They use UNIX as the portability vehicle, but the
  158. percentage of time spent in operating system and I/O functions is
  159. generally negligible.
  160.  
  161. CINT92, current release: Rel. 1.1
  162. ---------------------------------
  163.  
  164. This suite contains 6 benchmarks performing integer computations,
  165. all of them are written in C. The individual programs are:
  166.  
  167. Number and name  Area                       Approx. size
  168.                                             gross   net
  169.  
  170. 008.espresso     Circuit Theory             14800   11000
  171. 022.li           LISP interpreter            7700    5000
  172. 023.eqntott      Logic Design                3600    2600
  173. 026.compress     Data Compression            1500    1000
  174. 072.sc           Spreadsheet Calculator      8500    7100
  175. 085.gcc          GNU C Compiler             87800   58800
  176.                                            ------   -----
  177.                                            123900   85500
  178.  
  179. The approximate static size is given in numbers of source code lines,
  180. including declarations (header files). "Gross" numbers include
  181. comments and blank lines, "net" numbers exclude them.
  182.  
  183. CFP92, current release: Rel. 1.1
  184. --------------------------------
  185.  
  186. This suite contains 14 benchmarks performing floating-point
  187. computations. 12 of them are written in Fortran, 2 in C. The
  188. individual programs are:
  189.  
  190. Number and name  Area                       Lang.   Approx. size
  191.                                                     gross   net
  192.  
  193. 013.spice2g6     Circuit Design             F      18900   15000
  194. 015.doduc        Monte Carlo Simulation     F       5300    5300
  195. 034.mdljdp2      Quantum Chemistry          F       4500    3600
  196. 039.wave5        Maxwell's Equation         F       7600    6400
  197. 047.tomcatv      Coordinate Translation     F        200     100
  198. 048 ora          Optical Ray Tracing        F        500     300
  199. 052.alvinn       Robotics                   C        300     200
  200. 056.ear          Medical Modeling           C       5200    3300
  201. 077.mdljsp2      Quantum Chemistry          F       3900    3100
  202. 078.swm256       Shallow Water Model        F        500     300
  203. 089.su2cor       Quantum Physics            F       2500    1700
  204. 090.hydro2d      Astrophysics               F       4500    1700
  205. 093.nasa7        NASA Kernels               F       1300     800
  206. 094.fpppp        Quantum Chemistry          F       2700    2100
  207.                                                    -----   -----
  208.                                                    57900   43900
  209.  
  210. More information about the individual benchmarks is contained in
  211. description files in each benchmark's subdirectory on the SPEC
  212. benchmark tape.
  213.  
  214. The CPU benchmarks can be used for measurement in two ways:
  215. - Speed measurement
  216. - Throuput measurement
  217.  
  218. Speed Measurement
  219. -----------------
  220.  
  221. The results ("SPEC Ratio" for each individual benchmark) are
  222. expressed as the ratio of the wall clock time to execute one single
  223. copy of the benchmark, compared to a fixed "SPEC reference time"
  224. (which was chosen early-on as the execution time on a VAX 11/780).
  225.  
  226. As is apparent from results publications, the different SPEC ratios
  227. for a given machine can vary widely. SPEC encourages the public to
  228. look at the individual results for each benchmarks; users should
  229. compare the characteristics of their workload with that of the
  230. individual SPEC benchmarks and consider those benchmarks that
  231. best approximate their jobs. However, SPEC also recognizes the
  232. demand for aggregate result numbers and has defined the integer
  233. and floating-point averages
  234.  
  235.   SPECint92 = geometric average of the 6 SPEC ratios from CINT92
  236.   SPECfp92  = geometric average of the 14 SPEC ratios from CFP92
  237.  
  238. Throughput Measurement
  239. -----------------------
  240.  
  241. With this measurement method, called the "homogenuous capacity
  242. method", several copies of a given benchmark are executed; this
  243. method is particularly suitable for multiprocessor systems. The
  244. results, called SPEC rate, express how many jobs of a particular type
  245. (characterized by the individual benchmark) can be executed in a
  246. given time (The SPEC reference time happens to be a week, the
  247. execution times are normalized with respect to a VAX 11/780). The
  248. SPEC rates therefore characterize the capacity of a system for
  249. compute-intensive jobs of similar characteristics.
  250.  
  251. Similar as with the speed metric, SPEC has defined averages
  252.  
  253.   SPECrate_int92 = geometric average of the 6 SPEC rates from CINT92
  254.   SPECrate_fp92  = geometric average of the 14 SPEC rates from CFP92
  255.  
  256. Because of the different units, the values SPECint92/SPECfp92 and
  257. SPECrate_int92/SPECrate_fp92 cannot be compared directly.
  258.  
  259. No more SPECmark computation
  260. ----------------------------
  261.  
  262. While the old average "SPECmark[89]" has been popular with the
  263. industry and the press (see section 5: Oudated SPEC Benchmarks), SPEC
  264. has intentionally *not* defined an average "SPECmark92" over all CPU
  265. benchmarks of the 1992 suites, for the following reasons:
  266.  
  267. - With 6 integer and 14 floating-point benchmarks, the average would
  268.   be biased too much towards floating-point,
  269. - Customers' workloads are different, some integer-only, some
  270.   floating-point intensive, some mixed,
  271. - Current processors have developed their strengths in a more diverse
  272.   way (some more emphasizing integer performance, some more floating-
  273.   point performance) than in 1989.
  274.  
  275.  
  276. 4.2 SDM Benchmarks
  277. ==================
  278.  
  279. SDM stands for "Systems Development Multiuser"; the two benchmarks in
  280. this suite (current release: 1.1) characterize the capacity of a
  281. system in a multiuser UNIX environment. Contrary to the CPU
  282. benchmarks, the SDM benchmarks contain UNIX shell scripts (consisting
  283. of commands like "cd", "mkdir", "find", "cc", "nroff", etc.) that
  284. exercise the operating system as well as the CPU and I/O components
  285. of the system. The workloads of the benchmarks are intended to
  286. represent UNIX software development environments.
  287.  
  288. For each benchmark, throughput numbers (scripts, i.e. simulated user
  289. loads per hour) are given for several values of concurrent workloads.
  290. The reader can determine the peak throughput as well as the ability
  291. of a system to sustain throughput over a range of concurrent
  292. workloads. Since the workloads for the two benchmarks (057.sdet,
  293. 061.kenbus1) are different, the throughput values for different
  294. benchmarks cannot be compared.
  295.  
  296.  
  297. 5. Outdated SPEC Benchmarks
  298. ===========================
  299.  
  300. SPEC has published the first CPU benchmark suite in 1989, the current
  301. release of it is 1.2b. It contains 10 compute-intensive programs, 4
  302. integer (written in C) and 6 floating-point (written in Fortran). The
  303. following average values had been defined:
  304.  
  305.   SPECint89  = geometric average of the SPEC ratios of the 4 integer
  306.                  programs in rel. 1.2b (CPU-Suite of 1989)
  307.   SPECfp89   = geometric average of the SPEC ratios of the 6
  308.                  floating-point programs in rel. 1.2b
  309.   SPECmark89 = geometric average of all 10 SPEC ratios of the
  310.                  programs in rel. 1.2b
  311.  
  312. In addition, there was the possibility of throughput measurements,
  313. with 2 copies of a benchmark running per CPU, called "Thruput Method
  314. A" (There was never a "Method B"). The following average values had
  315. been defined:
  316.  
  317.   SPECintThruput89 = geometric average of the Thruput Ratios of the
  318.                       4 integer programs
  319.   SPECfpThruput89 = geometric average of the Thruput Ratios of the
  320.                       6 floating-point programs
  321.   SPECThruput89 ("aggregate thruput") = geometric average of the
  322.                       Thruput Ratios of all 10 programs
  323.  
  324. SPEC now discourages use of the 1989 benchmark suite and recommends
  325. use of the CINT92 and CFP92 suites, for the following reasons:
  326.  
  327. - The new suites cover a wider area of programs (20 programs instead
  328.   of 10),
  329. - The execution times for some of the old benchmarks became too short
  330.   on today's fast machines, with the danger of timing inaccuracies,
  331. - Input files have now been provided for most benchmarks in the 1992
  332.   suites, eliminating the danger of unintended compiler optimizations
  333.   (constant propagation),
  334. - The new suites do no longer contain a benchmark (030.matrix300)
  335.   that was too much influenced by a particular compiler optimization.
  336.   This optimization, while legal and a significant step in compiler
  337.   technology (it is still often used with the benchmarks of 1992),
  338.   inflated the SPEC ratio for this benchmark since it executed only
  339.   code susceptible to this optimization.
  340.  
  341. However, SPEC is aware of the fact that results with the old
  342. benchmark suite will still be quoted for a while and used for
  343. comparison purposes.
  344.  
  345. SPEC will discontinue sales of Rel. 1.2b tapes after December 1992
  346. and discontinue result publications for it after June 1993.
  347.  
  348.  
  349. 6. Forthcoming SPEC Benchmarks
  350. ==============================
  351.  
  352. SPEC is currently working on an NFS benchmark, also known as the
  353. LADDIS benchmark, measuring the performance of network file servers
  354. that follow the NFS protocol. Release of this benchmark is expected
  355. in March 1993. A beta test version ("pre-LADDIS") has been made
  356. available earlier to interested parties; however, SPEC explicitly
  357. disallowed the use of pre-LADDIS results in company publications.
  358. There have been significant changes between pre-LADDIS and the final
  359. version of LADDIS.
  360.  
  361. A number of other areas have been considered or are being considered
  362. by SPEC for future benchmark efforts:
  363. - I/O benchmarks
  364. - Client/Server benchmarks
  365. - RTE-based benchmarks
  366. - Commercial computing benchmarks
  367.  
  368. SPEC is always open to suggestions from the computing community for
  369. future benchmarking directions. Of course, SPEC even more welcomes
  370. proposals for actual programs that can be used as benchmarks.
  371.  
  372.  
  373. 7. Membership in SPEC
  374. =====================
  375.  
  376. The costs for SPEC membership are
  377.  
  378.   Annual Dues   $ 5000.00       Initiation Fee  $ 1000.00
  379.  
  380. There is also the category of a "SPEC Associate", intended for
  381. accredited educational institutions or non-profit organizations:
  382.  
  383.   Annual Dues   $ 1000.00       Initiation Fee  $  500.00
  384.  
  385. Associates have no voting privileges, otherwise they have the same
  386. benefits as SPEC members: Newsletters and benchmark tapes as they are
  387. available, with company-wide license. Probably more important are
  388. early access to benchmarks that are being developed, and the
  389. possibility to participate in the technical work on the benchmarks.
  390. The intention for associates is that they can act in an advisory
  391. capacity to SPEC, getting first-hand experience in an area that is
  392. widely neglected in academia but nethertheless very important in the
  393. "real world", and providing technical input to SPEC's task.
  394.  
  395. SPEC meetings are held about every six weeks, for technical work and
  396. decisions about the benchmarks. Every member or associate can
  397. participate and make proposals; decisions are made by a Steering
  398. Committee (9 members) elected by the general membership at the Annual
  399. Meeting. All members vote before a benchmark is finally accepted.
  400.  
  401.  
  402. 8. Acknowledgment
  403. =================
  404.  
  405. This summary of SPEC's activities has been written initially by
  406. Reinhold Weicker (Siemens Nixdorf). Portions of the text have been
  407. carried over from earlier Usenet postings (Answers to Frequently
  408. Asked Questions, No. 16: SPEC) by Eugene Miya (NASA Ames Research
  409. Center). Additional input has been provided by Jeff Reilly (Intel).
  410. This summary is regularly updated by Jeff Reilly and possibly other
  411. SPEC people.
  412.  
  413. Managerial and technical inquiries about SPEC should be directed
  414. to NCGA (see section 2). E-Mail questions that do not interfere
  415. too much with our real work :-) can also be mailed to
  416.     jwreilly@mipos2.intel.com       from North America
  417.     Reinhold.Weicker@stm.mchp.sni.de from Europe or elsewhere
  418.  
  419.                    ^ A  
  420.                 s / \ r                
  421.                m /   \ c              
  422.               h /     \ h            
  423.              t /       \ i          
  424.             i /         \ t        
  425.            r /           \ e      
  426.           o /             \ c    
  427.          g /               \ t  
  428.         l /                 \ u
  429.        A /                   \ r
  430.         <_____________________> e   
  431.                 Language
  432.  
  433.