home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #19 / NN_1992_19.iso / spool / comp / arch / storage / 617 < prev    next >
Encoding:
Internet Message Format  |  1992-09-02  |  3.7 KB

  1. Xref: sparky comp.arch.storage:617 comp.databases:6519
  2. Newsgroups: comp.arch.storage,comp.databases
  3. Path: sparky!uunet!iWarp.intel.com|inews.Intel.COM!cad018!mfineman
  4. From: mfineman@cad018..intel.com ( Mark S. Fineman )
  5. Subject: Re: Info on large, slow storage wanted (jukeboxes, etc.)
  6. Message-ID: <Btz7HF.1BH@nntp-sc.Intel.COM>
  7. Sender: news@nntp-sc.Intel.COM (USENET News System)
  8. Nntp-Posting-Host: cad018
  9. Organization: Intel Corporation, Santa Clara, CA
  10. References: <1992Aug29.210553.8744@rhein-main.de> <1992Aug31.043738.19685@psg.com> <22302@venera.isi.edu>
  11. Date: Thu, 3 Sep 1992 00:17:38 GMT
  12. Lines: 68
  13.  
  14. In article <22302@venera.isi.edu> rod@venera.isi.edu (Rodney Doyle Van Meter III) writes:
  15. >In article <1992Aug31.043738.19685@psg.com> randy@psg.com (Randy Bush) writes:
  16. >>vhs@rhein-main.de (Volker Herminghaus-Shirai) writes:
  17. >>
  18. >>> I need to design a retrieval system for ~15TB of data, of which ~5TB are
  19. >>> retrieved with a high frequency (25 requests/second) and an access time
  20. >>> of avg. 30 seconds (max. 120 seconds). Retrieval lacks any locality, so the
  21. >>> 5TB are real random-access. The rest of the data is still accessed at a
  22. >>> rate of 5 requests/second.
  23. >>
  24. >>Optical RW store, a la HP.
  25. >>-- 
  26. >>randy@psg.com   ...!uunet!m2xenix!randy
  27. >
  28. >
  29. >The problem is not the volume -- 15 TB is huge but not enormous
  30. >(like the distinction?:-)), the problem is the access rate. Even
  31. >the fastest cart machines are ~15 seconds to replace a disk or tape
  32. >(remove the AND insert the new), so to get 25 reqs/sec., you're
  33. >looking at not 40 but 400 cart machines.
  34. >
  35. >As pointed out, you probably want MO, not tape; VHS, 8mm, D-1, and
  36. >D-2 are all fairly slow to load (I think Ampex' D-2 is the fastest),
  37. >plus the seek times... w/ 400 cart machines, you'll have enough
  38. >drives that seek time isn't a problem with your latency.
  39. >
  40. >An important question is the size of an average data request --
  41. >if it's a bank account balance, the throughput of the device is irrelevant.
  42. >If it's CAD files or fluid-flow simulation, you need one of the
  43. >higher-speed alternatives.
  44. >
  45. >Are you prepared to handle acres of floor space, hundreds of
  46. >drives, all the power, etc.?
  47. >
  48. >By the time you add it all up, I think the only realistic solution
  49. >is RAID arrays. Yes, they're small and expensive, but I think it's
  50. >the only way to get that kind of throughput.  Oh, you'll need
  51. >one mini-super for every several RAID arrays, too, don't forget.
  52.  I'd still like to know what his real application is:
  53.     Can we make an effective index to reduce the number of 
  54.     sides of disk?.
  55.  
  56.     We have 120 seconds worst case response required.  This is only
  57.     time for about 4 mounts per drive (with current technology).
  58.     It is stated that 5000GB of data has to be looked at randomly.
  59.     Even if this only means the 10000 ( 5000GB/.5GB/side)
  60.     are needed, we would require 2500 drives to get the maximum
  61.     response time requested.   This would not include reading
  62.     any significant amount of data on each platter.
  63.  
  64.  2500 *$3000/drive  + 15000*$300/slot = $7.5M + $4.5M = $12,000,000
  65.  for 1GB optical disks for 15TB with 2500 drives.
  66.  
  67.  Hard disks are about $2000/GB, $2,000,000/TB, $30,000,000 for a
  68.  15TB system.  If it turns out that you actually have to read through
  69.  1/3 of the data in 120 seconds, then we have:
  70.         5E12 bytes
  71.        -----------      = 4E10 bytes/second
  72.         1.2E2 seconds
  73.  
  74.   This would require about 4E10/4E6 fast disks, = 1E4 fast disks.
  75.   Current technology is 2E9/disk, so 2E13 bytes would fit on
  76.   this many disks, which is close to the 1.5E13 bytes needed in
  77.   total, so the $30,000,000 should be still in the ballpark.
  78. -- 
  79. (408) 765-4277; MS SC3-36, 2220 Mission College Blvd.,
  80. P.O. Box 58119, Santa Clara, CA 95052-8119
  81.  mfineman@scdt.intel.com
  82.