home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #18 / NN_1992_18.iso / spool / comp / benchmar / 1310 < prev    next >
Encoding:
Text File  |  1992-08-16  |  11.1 KB  |  292 lines

  1. Newsgroups: comp.benchmarks
  2. Path: sparky!uunet!sun-barr!ames!data.nas.nasa.gov!amelia!eugene
  3. From: eugene@amelia.nas.nasa.gov (Eugene N. Miya)
  4. Subject: [l/m 7/24/92] SPEC info sources    (16/28) c.be. FAQ
  5. Keywords: who, what, where, when, why, how
  6. Sender: news@nas.nasa.gov (News Administrator)
  7. Organization: NAS Program, NASA Ames Research Center, Moffett Field, CA
  8. Date: Sun, 16 Aug 92 11:25:08 GMT
  9. Message-ID: <1992Aug16.112508.27772@nas.nasa.gov>
  10. Reply-To: eugene@amelia.nas.nasa.gov (Eugene N. Miya)
  11. Lines: 279
  12.  
  13. 16    SPEC                    <This panel>
  14. 17    Benchmark invalidation methods
  15. 18
  16. 19    WPI Benchmark
  17. 20    Equivalence
  18. 21    TPC
  19. 22
  20. 23
  21. 24
  22. 25    Ridiculously short benchmarks
  23. 26    Other miscellaneous benchmarks
  24. 27
  25. 28    References
  26. 1    Introduction to the FAQ chain and netiquette
  27. 2
  28. 3    PERFECT Club
  29. 4
  30. 5    Performance Metrics
  31. 6
  32. 7    Music to benchmark by
  33. 8    Benchmark types
  34. 9    Linpack
  35. 10
  36. 11
  37. 12    Measurement Environments
  38. 13
  39. 14
  40. 15    12 Ways to Fool the Mass with Benchmarks
  41.  
  42. Systems Performance Evaluation Corporation
  43. [SPEC]
  44. c/o NCGA
  45. 2722 Merrilee Drive
  46. Suite 200
  47. Fairfax, VA, 22031 
  48.  
  49. Ph:  703-698-9600 x318
  50. FAX: 703-560-2752
  51. spec-ncga@cup.portal.com. (NOT FREE)
  52. SPEC is a trademark of the Standard Performance Evaluation Corporation.
  53.  
  54. SPEC, the System Performance Evaluation Corporation, is a non-profit
  55. corporation formed to "establish, maintain and endorse a standardized
  56. set of relevant benchmarks that can be applied to the newest generation
  57. of high-performance computers".
  58. The founders of this organization believe that the user community
  59. will benefit greatly from an objective series of applications-oriented
  60. tests, which can serve as common reference points and be considered
  61. during the evaluation process.  While no one benchmark can fully
  62. characterize overall system performance, the results of a variety
  63. pf realistic benchmarks can give valuable insight into expected
  64. real performance.
  65. The members of SPEC (at current annual dues of $5000) are
  66. AT&T/NCR, Bull S.A., Compaq, CDC, DG, DEC, Fujitsu, HP, IBM,
  67. Intel, Integraph, MIPS, Motorola, Prime, Siemens, Silicon Graphics,
  68. Solbourne, Sun, Unisys.
  69.  
  70. SPEC basically does 2 things:
  71.  
  72. 1)  Puts together suites of benchmarks that are generally available
  73.     in source form.
  74.     These benchmarks are intended to measure something meaningful and
  75.     are extensively tested for portability before release.
  76.     There are strict rules on how these benchmarks must be run
  77.     and how results must be reported for the trademarked results
  78.     (SPECmark, SPECint, and SPECfp for the current CPU benchmarks).
  79. (SPECmark89, SPECint89 and SPECfp89 are the metrics from SPEC Release 1
  80. benchmark suite. Two suites, CINT92 and CFP92 with metrics SPECint92 and
  81. SPECfp92 were designed to replace SPEC Release 1.
  82.  
  83. 2)  Publishes SPEC Benchmark results in a quarterly newsletter.
  84.  
  85. There are currently four suites of benchmarks.
  86.  
  87. 1) CINT92
  88.  
  89. This is a suite of 6 compute intensive (CPU, memory system, compiler) integer
  90. benchmarks intended to measure "engine horsepower" on applications of
  91. realistic size and content. 
  92. The results are expressed as the ratio of the wall clock time to
  93. execute the benchmark compared to a (fixed) "SPEC reference time"
  94. (which was chosen early-on as the execution time on a VAX 11/780).
  95.  The results are reported as the geometric mean of the individual ratios:
  96.  
  97. SPECint92 -- the geometric mean of all 6 integer benchmarks.
  98.  
  99. A separate measure known SPECrate_int92 will be define by the end of June 92
  100. to use these benchmarks to measure the the processing capacity of a given
  101. system (i.i. - not just how fast one compute intensive job can be done but how
  102. many tasks can be accomplished.)
  103.  
  104. 2) CFP92
  105.  
  106. This is a suite of 14 compute intensive (CPU, memory system, compiler
  107. (12 Fortran, 2 C)) floating point benchmarks intended to measure
  108. "engine horsepower" on applications of realistic size and content. 
  109. The results are expressed as the ratio of the wall clock time to
  110. execute the benchmark compared to a (fixed) "SPEC reference time"
  111. (which was chosen early-on as the execution time on a VAX 11/780).
  112.  The results are reported as the geometric mean of the individual ratios:
  113.  
  114. SPECfp92 -- the geometric mean of all 6 floating point benchmarks.
  115.  
  116. A separate measure known SPECrate_fp92 will be define by the end of June 92
  117. to use these benchmarks to measure the the processing capacity of a given
  118. system (i.i. - not just how fast one compute intensive job can be done but how
  119. many tasks can be accomplished.)
  120.  
  121. 3)  SPEC Benchmark suite 1.2.
  122.     This is a suite of 10 CPU (and memory system) intensive benchmarks
  123.     intended to measure "engine horsepower" on some applications of
  124.     realistic size and content.
  125. This release is in the process of being replaced by CINT92 and CFP92.
  126.     The results are expressed as the ratio of the wall clock time to
  127.     execute the benchmark compared to a (fixed) "SPEC reference time"
  128.     (which was chosen early-on as the execution time on a VAX 11/780).
  129.     The results are reported as the geometric mean of the individual ratios:
  130. SPECmark89 -- all 10
  131. SPECint89 -- the 4 benchmarks that are integer-operation intensive
  132. SPECfp89 -- the 6 benchmarks that are floating-point intensive
  133.           (in this case that means > 1% of executed instr are FP instr).
  134.     A separate measure known as SPECthruput may be reported for
  135.     multiprocessor systems.
  136.     This attempts to measure the actual CPU/memory performance
  137.     available from the multiple processors.
  138.     In effect, it shows up any benchmark slowdown due to resource
  139.     contention in the MP system.
  140.  
  141. 2)  SPEC SDM 1.0 (Systems Development Multitasking) (announced 14-May-91).
  142.     This consists of two benchmarks that present a multiprocess
  143.     load to the system.  The results are more graphical than the
  144.     CPU benchmark and are not as easily reduced to single numbers,
  145.     but the marketing ad numbers used will be the two (different)
  146.     peak throughput numbers measured in scripts/hour.
  147.  
  148. SPEC is currently working on an NFS benchmark (LADDIS) expected in the second
  149. half of 1992.
  150.  
  151. The benchmark sources are generally available -- but not free.
  152. SPEC is charging separately for the two benchmark suites.
  153. The cost of the source tapes is intended to support the administrative
  154. costs of the corporation -- making tapes, answering questions about
  155. the benchmarks, and so on.
  156.  
  157. SPEC membership costs:
  158.  
  159.     Initiation    $1,000
  160. In order to encourage new memberships, SPEC has lowered the
  161. initiation fee to $ 1000 (full members) or $ 500 (associates).
  162.     Annual Dues    $ 5,000
  163.  
  164. SPEC Associate:
  165.  
  166.     Initiation    $500
  167.     Annual Dues    $1,000
  168.  
  169. To qualify as a SPEC associate, you must be an accredited educational
  170. institution or a non-profit organization.  An associate has no voting
  171. privileges.  An associate will receive the newsletter and the benchmark
  172. tapes as they are available.  In addition, an associate will have early
  173. access to benchmarks under development so that an associate may act in an
  174. advisory capacity to SPEC.
  175.  
  176. SPEC Benchmark Suite Tape/Newsletter Subscriptions
  177.  
  178. Pricing
  179.         Price
  180. CINT92        $425        (until 8/1/92,$300 if you have a SPEC 1 license)
  181. CFP92        $575        (until 8/1/92,$400 if you have a SPEC 1 license)
  182. CINT92&CFP92    $900        (until 8/1/92,$600 if you have a SPEC 1 license)
  183. Release1.2b    $300        (QIC 24 tape format)
  184. SDM        $1450
  185. Newsletter    $550 (1 year subscription, 4 issues)
  186.  
  187. Should probably place contents here:
  188.  
  189. Q. Where can I get SPEC Results?
  190.  
  191. A. Some SPEC results are tabulated (very unofficially) and maintained
  192.    for anonymous ftp access on perelandra.cms.udel.edu (128.175.74.1)
  193.    in the directory bench/spec/ .
  194.    The file spec.sc contains the raw data and some derived quantities.
  195.    This is an `sc' format spreadsheet file, and is not easy to read
  196.    without using the `sc' spreadsheet calculator.
  197.    The file spec.print contains a formatted subset of the data.
  198.  
  199.    If you need to get `sc' as well, it is available in pub/Lang/sc614.tar.Z
  200.  
  201.    REQUEST:  I have no official source for these results.  Your help
  202.     in keeping them up to date is requested.  Just send e-mail to
  203.     "mccalpin@perelandra.cms.udel.edu" with the following info:
  204.         (1) Exact model of machine
  205.         (2) SPECIFIC citation of where you got the data
  206.         (3) Either the 10 SPEC ratios or the 10 SPEC times
  207.     Unless you request otherwise, I will cite your personal
  208.     communication in the notes for the new results.
  209.  
  210.  
  211.                    ^ A  
  212.                 s / \ r                
  213.                m /   \ c              
  214.               h /     \ h            
  215.              t /       \ i          
  216.             i /         \ t        
  217.            r /           \ e      
  218.           o /             \ c    
  219.          g /               \ t  
  220.         l /                 \ u
  221.        A /                   \ r
  222.         <_____________________> e   
  223.                 Language
  224.  
  225.  
  226.    You might want to mention LADDIS in your SPEC listing even
  227. though LADDIS is not yet available from SPEC. 
  228. [See the 11/25/91 issue of "Unix Today!" for details. :-)))  ]
  229.  
  230.    Might you still want to write an editorial for UT! ?
  231.  
  232.       ---jason   jason@cs.utexas.edu
  233.  
  234. Article 2117 of comp.benchmarks:
  235. From: weicker@sinix.UUCP (Reinhold Weicker)
  236. Newsgroups: comp.benchmarks
  237. Subject: Update on SPEC
  238. Message-ID: <1992Jul22.095039.23362@sinix.UUCP>
  239. Date: 22 Jul 92 09:50:39 GMT
  240. Organization: SNI AG Muenchen, STO XS
  241. Lines: 58
  242.  
  243. This is an update (mostly minor corrections) to the recent (July 16)
  244. posting of Answers to Frequently Asked Questions about SPEC.
  245.  
  246.  
  247. 2) Phase-Out of the SPEC Benchmark Suite 1.2 (CPU-Benchmarks of 1989):
  248.  
  249. Since SPEC has now, with CINT92 and CFP92, better and larger
  250. benchmark suites than the old suite 1.2 to measure the
  251. CPU/Memory/Compiler performance, it strongly encourages usage of the
  252. new suites (with the averages SPECint92, SPECfp92 for speed,
  253. SPECrate_int92, SPECrate_fp92 for compute-intensive throughput).
  254.  
  255. Therefore, at the last Steering Committee meeting, SPEC has
  256. adopted a plan for the phase-out of the old benchmarks:
  257. - Result pages labeled with "Benchmark obsolete" from Jan. 1993 on,
  258. - No more tape sales of Rel. 1.2b after Jan. 1993,
  259. - No more result publications in SPEC Newsletter after June 1993.
  260.  
  261. 3) SPEC seeks new members:
  262.  
  263. - You can get first-hand experience in an area that is widely
  264.   neglected in academia but nethertheless very important in the "real
  265.   world"; and there *are* interesting research questions in this
  266.   area.
  267. - SPEC can perhaps overcome the perceiption that may exist "These are
  268.   just a bunch of computer vendors, and who knows how meaningful
  269.   their results are". Presently, we are only vendors, but membership
  270.   is not restricted to vendors. Others can bring in new aspects, are
  271.   (hopefully) unbiased (and perceived as unbiased), can accompany
  272.   SPEC's practical work with systematic research, etc.
  273.  
  274. - Reinhold Weicker
  275.  
  276. I have been involved in benchmarking since I wrote Dhrystone; for
  277. the last 1 1/2 years I have been representing my company (Siemens
  278. Nixdorf) within SPEC.
  279.  
  280. Opinions expressed are my own and do not represent SPEC or my company.
  281.  
  282. P.S. I post this message from a different machine than I use normally.
  283. Therefore, if you want to send mail to me, do not use the "r"
  284. command, use the explicit address "weicker@ztivax.zfe.siemens.de".
  285. -- 
  286. Reinhold P. Weicker, Siemens Nixdorf Information Systems, STM OS 32
  287. Address:    Otto-Hahn-Ring 6, W-8000 Muenchen 83, Germany
  288. E-Mail:     weicker@ztivax.zfe.siemens.de
  289. Phone:      +49-89-636-42436 (8-17 Central European Time)
  290.  
  291.  
  292.