home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1993 #3 / NN_1993_3.iso / spool / comp / arch / 12430 < prev    next >
Encoding:
Text File  |  1993-01-28  |  3.7 KB  |  66 lines

  1. Newsgroups: comp.arch
  2. Path: sparky!uunet!UB.com!pacbell.com!ames!agate!spool.mu.edu!yale.edu!ira.uka.de!math.fu-berlin.de!mailgzrz.TU-Berlin.DE!news.netmbx.de!Germany.EU.net!mcsun!news.funet.fi!cs.joensuu.fi!jahonen
  3. From: jahonen@cs.joensuu.fi (Jarmo Ahonen)
  4. Subject: Re: HOw many PC's make an Amdahl mainframe
  5. Message-ID: <1993Jan27.064625.1647@cs.joensuu.fi>
  6. Organization: University of Joensuu
  7. References: <1k46ioINNijv@fido.asd.sgi.com> <1993Jan26.215541.9957@adobe.com> <1993Jan27.024351.17902@news.arc.nasa.gov>
  8. Date: Wed, 27 Jan 1993 06:46:25 GMT
  9. Lines: 55
  10.  
  11. lamaster@pioneer.arc.nasa.gov (Hugh LaMaster) writes:
  12.  
  13. >In article <1993Jan26.215541.9957@adobe.com>, zstern@adobe.com (Zalman Stern) writes:
  14. >|> In article <1k46ioINNijv@fido.asd.sgi.com> gints@prophet.esd.sgi.com (Gints  
  15. >|> Comments like this indicate that the big iron boys are pretty desperate.  
  16. >|> They are fighting the dynamics of the market. There are *relatively* few  
  17. >|> problems that require "mainframe power." Over time mainframes must either  
  18. >|> become cheaper or more powerful. More powerful is limited because there are  
  19. >|> fewer and fewer problems that require that kind of power and it becomes  
  20. >|> harder and harder to make the machine more powerful. Cheaper is a problem  
  21. >|> because the margins go down and a lot of a mainframe's costs are not  
  22. >|> hardware oriented. (I.e. service, paying for the space and other central  
  23. >|> facilities required.)
  24.  
  25. [stuff deleted] 
  26.  
  27. >The reason I am posting this is that I think it is a big mistake
  28. >to underestimate the importance of big iron systems.  IMHO, most large
  29. >data centers will continue to use large systems to provide the cheapest
  30. >deliverable "bulk" CPU cycles, to manage large and growing data
  31. >requirements, and to provide the highest possible transaction rates.
  32. >As well as large engineering and scientific simulations.
  33. >What has already disappeared is the use of "mainframes" for relatively
  34. >mundane word processing, etc.  But, the data management requirements
  35. >are still there.  Today, big iron systems have memory bandwidths of
  36. >1-200 GBytes/sec, raw IO bandwidths of 1000 MBytes/sec., I/O
  37. >throughputs of around 100-200 MBytes/sec and up to 2000 integer-scalar 
  38. >MIPS.  While this is maybe only ~200 486 systems, there is an enormous 
  39. >difference in the capability between such systems.  A 200:1 difference in 
  40. >power totally changes the capability of a system, as was pointed out 
  41. >recently at Supercomputing '92.  I could go on, but, let's not confuse
  42. >the financial troubles of a few big iron manufacturers with the 
  43. >disappearance of their market.
  44.  
  45. That is true. I have run some simulations on CONVEX machines, workstations,
  46. and PC's. I have an interesting simulation which would take about 3 months
  47. on my PC, one month on the fastest workstation, and two weeks on a CONVEX.
  48. (pretty well vectorizing code with big datasets, as you may quess. The PC
  49. and workstation times are estimates from partial simulations.)
  50.  
  51. The PC time is completely unusab|e, even if I divide the problem for one
  52. hundred PC's, I'd not get much more than communication traffic between those
  53. PC's. The workstation time is almost usable, and the fortnight on CONVEX is
  54. clearly practically usefull. Not every problem can be distributed for a
  55. number of PC's because the dependencies would require so much communication
  56. that most of the cycles would be wasted for it.
  57.  
  58. I'm sure that there will always be need for machines that are 6+ times
  59. faster than the fastest PC. Well, 100+ is always better :-). 
  60.  
  61. ----------------------------------------------------------------------
  62. Jarmo J. Ahonen
  63. Computing Centre, Lappeenranta University of Technology, P.O.Box 20,
  64. SF-53851 Lappeenranta, Finland. email: Jarmo.Ahonen@lut.fi
  65.  
  66.