home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1993 #3 / NN_1993_3.iso / spool / comp / sys / hp / 15206 < prev    next >
Encoding:
Text File  |  1993-01-22  |  10.8 KB  |  266 lines

  1. Newsgroups: comp.sys.hp
  2. Path: sparky!uunet!usc!sdd.hp.com!apollo.hp.com!netnews
  3. From: mcsavaney_d@apollo.hp.com (#David McSavaney)
  4. Subject: Re: SW for snake farms
  5. Sender: usenet@apollo.hp.com (Usenet News)
  6. Message-ID: <C19L81.E6J@apollo.hp.com>
  7. Date: Fri, 22 Jan 1993 16:45:37 GMT
  8. References: <1993Jan22.105439.22750@email.tuwien.ac.at>
  9. Nntp-Posting-Host: macsav.ch.apollo.hp.com
  10. Organization: Hewlett-Packard Corporation, Chelmsford, MA
  11. Keywords: cluster of snakes, load-balancing
  12. Lines: 252
  13.  
  14. In article <1993Jan22.105439.22750@email.tuwien.ac.at> strnadl@tph01.tuwien.ac.at writes:
  15. >Snake-farm: a more or less loosely coupled bunge of snakes where one
  16. >            can share resources (e.g. balance the load over more 
  17. >            machines,...)
  18. >          [much stuff deleted]
  19. >-- 
  20. >Christoph F. Strnadl              | The term 'politically correct', co-
  21. >Institute for Theoretical Physics | opted by the white power elite as a
  22. >TU Vienna, Austria                | tool for attacking multiculturalism,
  23. >email: strnadl@tph01.tuwien.ac.at | is no longer politically correct.
  24. >  
  25.  
  26. I've included a long piece of background information from July 92 about the 
  27. Snakes Farm installed at CERN, though I am not sure if the contacts are
  28. still valid. You be pleased to know that further development
  29. of the Snakes Farm concept at CERN with Convex resulted in the
  30. announcement of the Cluster Computing program in October 92. Your local
  31. HP or Convex office will have more details.     
  32.  
  33. Software available for Cluster Computing includes:
  34. Linda from SCA
  35. NQS from Sterling
  36. Express from Parasoft
  37. ISIS from ISIS
  38. Load Balancer from Freedman Sharp
  39. PVM/HeNCE from Oak Ridge NL (Public Domain)
  40. Taskboker from HP
  41. ConvexNQS, ConvexPVM and ConvexMLIB        
  42. Many networked sys admin tools from HP
  43.  
  44. Best wishes
  45. Dave McSavaney, Product Manager, 
  46. MP Workstations, Advanced Systems Division, 
  47. Hewlett-Packard Co.
  48.                                    
  49. Still not an official statement of Hewlett-Packard Company
  50. -----------------------------------------------------------
  51.  
  52. >                   HP 'SNAKES FARM' AT CERN
  53. > About CERN and the HP 'Snakes Farm'
  54. > -----------------------------------
  55. > Located near Geneva, Switzerland, CERN (European Laboratory
  56. > for Particle Physics) is one of the world's largest
  57. > scientific laboratories. Funded mainly by 17 Member States,
  58. > it's annual budget for 1992 was 945.47 million Swiss francs.
  59. > CERN has over 3000 employees and provides support for over
  60. > 6,000 visiting scientists per year.
  61. > HP's 'Snakes Farm' consists of up to 50 HP 9000/700 servers
  62. > linked together and accessed via an HP 9000/720 workstation
  63. > centralizing job requests. The 'Snakes Farm' can be
  64. > configured to provide from 57 to 2,850 MIPs using 9000/720's.
  65. > In December 1991, CERN installed 16 HP 9000/720 systems. The
  66. > system cluster is linked together and accessed via an HP
  67. > 9000/720 workstation that centralizes job requests.
  68. > What CERN Does
  69. > --------------
  70. > CERN's business is particle physics; studying the
  71. > innermost constituents of matter to find out how the Universe
  72. > was created and how it works.
  73. > It is thought that the Universe was created when a huge
  74. > quantity of energy was suddenly transformed into billions of
  75. > particles which, after many changes and transformations,
  76. > finally stabilized and created the Universe as we know it.
  77. > At CERN, this process can be artificially induced on a very
  78. > minute scale so that the process can be studied. To do this,
  79. > physicists inject particles with a large amount of energy by
  80. > accelerating them to almost the speed of light. When two
  81. > particles collide, energy is freed and transforms into
  82. > matter. Using detectors and computers, physicists observe
  83. > what these new particles do.
  84. > Scientific Equipment at CERN
  85. > ----------------------------
  86. > CERN has several types of particle accelerators and
  87. > colliders. Much of the research today is performed on the
  88. > Large Electron-Proton collider, or LEP. LEP is built in a 27-
  89. > Kilometer underground ring and is currently the world's
  90. > largest scientific machine. There are four large experiments
  91. > being conducted on LEP, which provide research material for
  92. > over 2,000 physicists worldwide.
  93. > LEP works as follows: Electrons and positrons (the antimatter-
  94. > counterparts of electrons) are whirled around in the ring and
  95. > smashed together. Each collision produces a spray of up to
  96. > several hundred fragments (secondary particles). Four
  97. > detectors spaced round the ring intercept the emerging
  98. > fragments of matter. Sophisticated electronics equipment
  99. > within the detectors record and monitor the mass of incoming
  100. > data. Each detector has its own data acquisition system,
  101. > processing raw information before passing it on to the
  102. > experiment's main computing system for further processing and
  103. > recording onto cassettes.
  104. > A new machine, the Large Hadron Collider (LHC) is planned for
  105. > 1998. LHC will bring protons into head-on collisions at
  106. > higher energies than ever achieved before. It will reveal
  107. > behavior of the fundamental particles of matter that has
  108. > never been studied before.
  109. > CERN's Computing Requirements
  110. > -----------------------------
  111. > CERN's data storage requirements are immense. The information
  112. > from a single collision could fill a telephone directory. All
  113. > of CERN's experimental data is stored on 60,000 cassettes,
  114. > representing over 50 Terabytes (1 Terabyte = 1,000
  115. > Gigabytes). The large size of the data sets presents
  116. > challenges in networking, data handling and data storage.
  117. > As for processing power, a typical job is so large that it
  118. > runs for one CPU day. Each of the four current experiments on
  119. > LEP requires about 1000 MIPs for offline data processing and
  120. > event simulation. (Offline processing is performed some hours
  121. > or days after an experiment has been completed, typically
  122. > using data that has been recorded on cassettes.)
  123. > The CERN computing center also has a fast-growing requirement
  124. > for CPU time for event simulation for LHC and LEP
  125. > experiments. For example, a large simulation effort is
  126. > underway by accelerator physicists to design the magnets and
  127. > beam transport specifications of the LHC.
  128. > CERN needs experience with very large computing facilities in
  129. > preparation for LHC. LHC experiments will require between 100
  130. > and 1000 times the computer resources of the current
  131. > generation of LEP experiments. An investigation is being
  132. > undertaken to determine how to build and manage a system that
  133. > can meet future requirements.
  134. > Starting with the 'Snakes Farm' at CERN
  135. > ---------------------------------------
  136. > In 1991, computer specialists at the CERN decided to install
  137. > a 'Snakes Farm.' This decision was based on mainly on two
  138. > factors: price/performance and scalability.
  139. > Computing services based on the 'Snakes Farm' were introduced
  140. > in December 1991. The service is called the Central
  141. > Simulation Facility (CSF) and is based on a cluster of 16 HP
  142. > 9000/720 workstations and servers connected to the CERN disk
  143. > and tape service developed for a centrally operated RISC*
  144. > environment (CORE). CSF is a joint CERN/HP project.
  145. > The goal of CSF is to provide physicists an integrated system
  146. > capable of handling the full range of batch work typical of a
  147. > large High Energy Physics lab. For 1993, CSF plans to provide
  148. > an aggregate system throughput of 500 CERN Units*
  149. > (approximately 1 GFlop).
  150. > CSF Hardware Installation
  151. > -------------------------
  152. > At CSF, the 16 HP 9000/720 systems are rack mounted and
  153. > linked together. One of these 16 centralizes job requests and
  154. > manages the job queue.
  155. > The 'Farm' is connected to an Ethernet segment. In this same
  156. > segment there are three Apollo DN 10000 workstations. The HP
  157. > 9000/720 servers work together with and augment the
  158. > capability of these workstations.
  159. > Also on the same Ethernet segment are two servers that act as
  160. > tape-staging devices for jobs running anywhere in CERN's
  161. > centrally operated RISC environment. Over 50 tape drives are
  162. > operated round-the-clock by a dedicated tape robots and a
  163. > tape-handling team. CERN uses an IBM 3090/600J mainframe
  164. > computer to manage the data on these cassettes and the tape
  165. > robots. (The IBM mainframe was originally purchased as a
  166. > batch machine, but today it is used primarily for tape
  167. > handling and interactive online tasks such as electronic mail
  168. > and file editing.)
  169. > The Ethernet segment accesses the sitewide FDDI backbone.
  170. > From the FDDI backbone, the cluster accesses the rest of the
  171. > site's Ethernet LAN through an FDDI-to-Ethernet DEC 600
  172. > bridge.
  173. > Each HP 9000/720 system is configured with a 400 Mbyte local disk,
  174. > 16 MByte RAM, and HP-UX.
  175. > Most of the HP servers in the 'Farm' run 'diskless,' that is,
  176. > they are booted over the LAN from an HP-UX cluster server.
  177. > This frees up over 80 Mbytes per disk while reducing the
  178. > administrative load of maintaining separate file systems.
  179. > CSF Batch Environment, File System and Usage
  180. > Users submit jobs to the HP 9000/720 workstation via NQS
  181. > (Network Queueing System). NQS manages the job queue and
  182. > distributes jobs evenly to the destination servers.
  183. > At the start of a job, the executable program and any data
  184. > card files the job might need are copied to a temporary
  185. > workspace on the local disk. Job output is also written to
  186. > the local disk.
  187. > When the job finishes, the results are recorded onto a
  188. > cartridge or sent over NFS (Network File System) to the user.
  189. > NQS then cleans up the temporary work area, and the system is
  190. > ready to accept the next task.
  191. > People are currently in the various stages of porting their
  192. > large programs to the HP-UX Fortran compiler. Existing code
  193. > running on the HP-UX platform does not need to be recompiled
  194. > for the 'Farm'.
  195. > Conclusions and Benchmark Results
  196. > ---------------------------------
  197. > Today, the 'Farm' handles a significant amount of the scalar
  198. > computation for simulation, analysis, data processing, and
  199. > visualization at CERN. The 'Farm' has doubled the CPU
  200. > capacity of CERN's central mainframes.
  201. > CERN benchmark testing on the HP 9000/720 resulted in the
  202. > following:
  203. > - One HP 9000/720: 10.5 CERN Units (together the 16 9000/720s
  204. >   provide 168 CERN Units)
  205. > - IBM 3090/600J: 9.5 CERN Units per CPU (for a total of almost
  206. >   60 CERN units)
  207. > - CRAY Y-MP (6NS): 11 CERN Units
  208. > In addition, CERN's benchmark tests showed that the
  209. > processing power of the 'Farm' was comparable to that of an
  210. > IBM 9000/900.
  211. > For more information
  212. > --------------------
  213. > Anyone interested in visiting the 'Snakes Farm' at CERN
  214. > should contact Les Robertson in Geneva at (41) 22-767-4916. More
  215. > detailed information about the HP 'Snakes Farm' can be
  216. > obtained from Michel Benard (HP) at (41) 22-780-8165 (Switzerland).
  217.  
  218.  ****Not sure if these are still valid*****
  219. > A CERN Unit is a combination of floating-point, integer, and
  220. > double-precision tests
  221. > .......................................................................
  222.  
  223.  
  224.