home *** CD-ROM | disk | FTP | other *** search
/ ftp.pasteur.org/FAQ/ / ftp-pasteur-org-FAQ.zip / FAQ / arch-storage / part2 < prev   
Encoding:
Internet Message Format  |  1998-01-17  |  115.5 KB

  1. Path: senator-bedfellow.mit.edu!bloom-beacon.mit.edu!hecate.umd.edu!cs.umd.edu!ra.nrl.navy.mil!whisky.nrl.navy.mil!news.cc.ukans.edu!arclight.uoregon.edu!newsfeed.internetmci.com!199.120.150.5!news.ridgecrest.ca.us!nntp-server.caltech.edu!rdv
  2. Newsgroups: comp.arch.storage,comp.answers,news.answers
  3. Subject: comp.arch.storage FAQ 2/2
  4. Message-ID: <69p5sn$p3c@gap.cco.caltech.edu>
  5. From: rdv@alumni.caltech.edu (Rodney D. Van Meter)
  6. Date: 17 Jan 1998 02:43:35 GMT
  7. Followup-To: comp.arch.storage
  8. Expires: Sun, 1 Mar 1998 00:00:00 GMT
  9. References: <69p5nc$p19@gap.cco.caltech.edu>
  10. Organization: California Institute of Technology, Alumni Association
  11. Keywords: computer mass storage, frequently asked questions, disk,       
  12.  tape, RAID, file systems, hierarchical storage management
  13. Approved: news-answers-request@MIT.EDU
  14. NNTP-Posting-Host: alumni.caltech.edu
  15. Lines: 3037
  16. Xref: senator-bedfellow.mit.edu comp.arch.storage:16639 comp.answers:29699 news.answers:121004
  17.  
  18. Archive-name: arch-storage/part2
  19. Version: $Header: /nfs/yelo/rdv/comp-arch-storage/faq/RCS/FAQ-2.draft,v 1.37 98/01/16 18:20:09 rdv Exp $
  20. Posting-Frequency: monthly
  21.  
  22. Rod Van Meter, Joe Stith, and the gang on comp.arch.storage
  23.  
  24. Information on disk, tape, MO, RAID and SSD can be found in part 1 of
  25. the FAQ.  Part 2 covers file systems, hierarchical storage management,
  26. backup software, robotics, benchmarking, MTBF and miscellaneous
  27. topics.
  28.  
  29.  
  30.  
  31. 1.     Standards
  32. 1.1.   ANSI X3B5 {None}
  33. 1.2.   IEEE Mass Storage System Ref Model (OSSI) {Brief, 6/1/95}
  34. 1.3.   ECMA - European Computer Manufacturers Association {None}
  35. 1.4.   System Independent Data Format (SIDF)
  36.  
  37. 2.     I/O Related Email Lists
  38.  
  39. 3.     Hierarchical Storage Management
  40. 3.1.   Unitree {Brief}
  41. 3.1.1. Epoch vs Unitree
  42. 3.2.   National Storage Lab {Brief}
  43. 3.3.   HIARC {New}
  44. 3.4.   Epoch (also known as StorageTek's NearNet) {Brief}
  45. 3.5.   Zetaco/NETstor {Brief}
  46. 3.6.   R-Squared Infinity IFS 2 {Brief}
  47. 3.7.   AMASS
  48. 3.8.   Tracer XFS {None}
  49. 3.9.   Metior
  50. 3.10.  NAStore {Brief}
  51. 3.11.  DMF {Brief}
  52. 3.12.  FileServ {Brief}
  53. 3.13.  Cray Research's Open Storage Manager {Brief}
  54. 3.14.  T-mass {None}
  55. 3.15.  HP OpenView OmniStorage
  56. 3.16.  Platinum NetArchive-HSM {Brief, New}
  57. 3.17.  Large Storage Configurations {Brief,New}
  58. 3.18.  Unix HSM Vendor List
  59. 3.19.  Mainframe
  60. 3.20.  PC & PC Server Oriented Packages
  61. 3.20.1. HP Optical Jukebox Storage Solution
  62. 3.20.2. Chili Pepper Software
  63. 3.20.3. Cheyenne ARCserve
  64. 3.21.  DATMAN {Brief}
  65. 3.22.  Windows NT
  66. 3.23.  Other Non-Unix HSM
  67. 3.24.  Tapes as Disks {Brief, New}
  68.  
  69. 4.     Backup Software
  70. 4.1.   PC-Oriented Backup Packages
  71. 4.2.   Unix Packages
  72. 4.2.1. Spectra Logic Alexandria
  73. 4.2.2. ADSTAR Distributed Storage Manager
  74. 4.2.3. NetWorker
  75. 4.2.4. BudTool {Brief}
  76. 4.2.5. HP OmniBack II {Brief, New}
  77. 4.2.6. Workstation Solutions {Brief}
  78. 4.2.7. Amanda {Brief, New}
  79. 4.2.8. Remote Backup or Mirroring {Brief, New}
  80.  
  81. 5.     Tape and Autochanger Management Software
  82. 5.1.   REELlibrarian
  83. 5.2.   ANT Medium Changer
  84. 5.3.   Tapes 3000 {Brief}
  85. 5.4.   Others
  86.  
  87. 6.     Robotics (Autochangers, Jukeboxes, Stackers, Libraries)
  88. 6.1.   8mm {Brief}
  89. 6.1.1. Exabyte {Brief}
  90. 6.1.1.1. EXB-10h
  91. 6.1.1.2. EXB-210
  92. 6.1.1.3. EXB-220
  93. 6.1.1.4. EXB-440/480
  94. 6.1.1.5. EXB-10
  95. 6.1.1.6. EXB-10i
  96. 6.1.1.7. EXB-10e
  97. 6.1.1.8. EXB-120
  98. 6.1.2. ADIC {Brief, New}
  99. 6.1.3. Storage Tek (was Lago) DataWheel {Brief}
  100. 6.1.4. ACL {None}
  101. 6.1.5. Cambridge On-Line Storage {Brief}
  102. 6.1.6. Spectra Logic {Brief}
  103. 6.1.7. Qualstar {Brief}
  104. 6.2.   3480
  105. 6.2.1. StorageTek {Brief}
  106. 6.2.2. EMASS (was GRAU) {Brief}
  107. 6.2.3. 3590 (Magstar,NTP) {Brief}
  108. 6.3.   4mm {Brief}
  109. 6.3.1. Cambridge On-Line storage {Brief}
  110. 6.3.2. Spectra Logic {Brief}
  111. 6.3.3. HP 4mm {Brief}
  112. 6.3.4. Storage Tek Datawheel {Brief}
  113. 6.3.5. Diverse Logistics Libra {Brief, New}
  114. 6.3.6. Qualstar {Brief, New}
  115. 6.3.7. ADIC {Brief, New}
  116. 6.4.   VHS {Brief}
  117. 6.4.1. MountainGate (was Metrum)
  118. 6.5.   Digital Linear Tape (DLT) (Quantum) {Brief}
  119. 6.5.1. TZ877 {Brief}
  120. 6.5.2. TL820 {Brief}
  121. 6.5.3. MountainGate
  122. 6.5.4. Breece Hill {Brief}
  123. 6.5.5. Odetics {Brief}
  124. 6.5.6. MediaLogic ADL
  125. 6.5.7. ADIC {Brief, New}
  126. 6.6.   D-2
  127. 6.6.1. Ampex
  128. 6.6.2. Odetics
  129. 6.7.   ID-1
  130. 6.7.1. Sony DMS, PetaSite {Brief}
  131. 6.8.   Optical Disk (MO,WORM) Libraries
  132. 6.8.1. Hitachi 448 GB optical library
  133. 6.8.2. HP MO Autochangers
  134. 6.8.3. Maxoptix MO Autochangers
  135. 6.8.4. MountainGate {Brief}
  136. 6.8.5. DISC DocuStore {Brief}
  137. 6.8.6. Kodak {Brief}
  138. 6.8.7. Sony {Brief}
  139. 6.9.   CD-ROM Jukeboxes
  140. 6.9.1. Pioneer
  141. 6.9.2. CyberTower {Brief, New}
  142. 6.9.3. NSMJukebox {Brief, New}
  143. 6.9.4. Nakamichi {Brief, New}
  144. 6.9.5. CDI Juke Box Library {Brief,New}
  145. 6.9.6. K & S M-200 {Brief, New}
  146. 6.9.7. DISC {Brief, New}
  147. 6.9.8. Meridian {Brief, New}
  148.  
  149. 7.     File Systems
  150. 7.1.   NFS {Brief}
  151. 7.1.1. NFS V3
  152. 7.2.   AFS {Brief}
  153. 7.3.   DFS {Brief}
  154. 7.4.   Log based file systems
  155. 7.5.   Mainframe File Systems
  156. 7.6.   Parallel System File Systems
  157. 7.7.   Microsoft Windows NT {Brief}
  158. 7.8.   Large Unix File Systems
  159. 7.9.   Non-Unix Large File Systems
  160.  
  161. 8.     (Device) Interfaces
  162. 8.1.   SCSI {Full}
  163. 8.1.1. Single ended vs differential
  164. 8.1.2. Asynchronous vs Synchronous Transfers
  165. 8.1.3. SCSI-I vs SCSI-II vs SCSI-III
  166. 8.1.4. Fast-Wide SCSI
  167. 8.1.5. Shared Busses / Performance {Brief}
  168. 8.1.6. Cabling/Hot Plugging {Brief}
  169. 8.1.7. Third Party Transfers/Separation of Control & Data Paths {Brief}
  170. 8.2.   IDE {Brief}
  171. 8.3.   IPI {None}
  172. 8.4.   HIPPI {Brief}
  173. 8.4.1. HIPPI-6400 {Brief}
  174. 8.5.   Ultranet {Brief}
  175. 8.6.   Ethernet {Brief}
  176. 8.7.   FDDI {None}
  177. 8.8.   Fibre Channel Standard (FCS)
  178. 8.9.   ESCONN/SBCON {Brief}
  179. 8.10.  IEEE P1394 (Serial Bus)
  180. 8.11.  Serial Storage Architecture (SSA)
  181. 8.12.  S2I: IEEE P1285 Scalable Storage Interface
  182. 8.13.  Multibus, Unibus, Mainframe Channels, and other history {None}
  183.  
  184. 9.     Other
  185. 9.1.   Video vs Datagrade tapes {brief, 5/94}
  186. 9.2.   Compression
  187.  
  188. 10.    Benchmarking
  189.  
  190. 11.    Mass Storage Conferences
  191. 11.0.1. THIC Tape Head Interface Committee {Brief, New}
  192.  
  193. 12.    MTBF (Mean Time Between Flareups, er, Failures)
  194.  
  195. 13.    Mass Storage Reports
  196.  
  197. 14.    Network-Attached Peripherals {Brief}
  198.  
  199. 15.    Other References
  200. 15.1.  Print
  201. 15.2.  Web
  202. 15.3.  Newsgroups
  203. 15.4.  Research Papers
  204.  
  205. 16.    ORIGINAL CALL FOR VOTES
  206.  
  207. 17.    Original Author's Disclaimer and Affiliation:
  208.  
  209. 18.    Copyright Notice
  210.  
  211. 19.    Additional Topics to be added
  212. ------------------------------
  213. Subject: [1] Standards
  214. From: Standards
  215.  
  216. There's a killer supply of computer-related standards at
  217. http://www.cmpcmm.com/cc/. Fibre Channel and several
  218. mass-storage-related items can be found there.
  219.  
  220. The ANSI and IEEE standards can be purchased in hardcopy form (the
  221. only way some of them are available) from Global Engineering
  222. Documents, (800)854-7179 or (303)792-2181.
  223.  
  224. ------------------------------
  225. Subject: [1.1] ANSI X3B5 {None}
  226. From: Standards
  227.  
  228. ------------------------------
  229. Subject: [1.2] IEEE Mass Storage System Ref Model (OSSI) {Brief, 6/1/95}
  230. From: Standards
  231.  
  232. The Storage Systems Standards Working Group now has a WWW page at
  233. http://www.arl.mil/IEEE/ssswg.html.
  234.  
  235. Version 5 of the model is available via
  236. ftp://swedishchef.lerc.nasa.gov:mass_store/ as the files
  237. ossiv5.ps{1,2,3}.
  238.  
  239. The OSSI (Open Storage Systems Interconnection) Reference Model (its
  240. new name) "provides the framework for a series of standards for
  241. application and user interfaces to open storage systems." One of its
  242. prime purposes is to define a common vocabulary. Claiming compliance
  243. with the model at the moment has little practical value as far as
  244. interoperation of different pieces from different vendors goes (which
  245. is one of the ultimate aims of the still-distant standards that may
  246. develop from this model).
  247.  
  248. ------------------------------
  249. Subject: [1.3] ECMA - European Computer Manufacturers Association {None}
  250. From: Standards
  251.  
  252. ------------------------------
  253. Subject: [1.4] System Independent Data Format (SIDF)
  254. From: Standards
  255.  
  256. This is a data format for tapes and removable disks, to facilitate
  257. interchange between hardware and software platforms. See the FAQ at
  258. http://www.mcs.net/~jgast/sidf.html.
  259.  
  260. ------------------------------
  261. Subject: [2] I/O Related Email Lists
  262. From: I/O Related Email Lists
  263.  
  264. Here is a list of email reflectors for those who need to be deeply
  265. involved in the technical details of various interfaces and standards.
  266.  
  267.  
  268.  
  269.                                                               X3T10/95-010 
  270. r0
  271.                                                                 April 6, 
  272. 1995
  273.             I/O Interface Related Reflectors (mailing lists)
  274.  
  275.               Subscribe/                                    majordomo/
  276. Reflector     Unsubscribe          Broadcast to             listserv
  277. Name          Address              Reflector                keyword
  278.  ------------- -------------------- ------------------------ 
  279.  -----------------
  280. SCSI          scsi-request@symbios scsi@symbios.com         n/a (human)
  281.               .com
  282. ATA           majordomo@dt.wdc.com ata@dt.wdc.com           ata
  283. ATAPI         majordomo@dt.wdc.com atapi@dt.wdc.com         atapi
  284. SSA           majordomo@dt.wdc.com ssa@dt.wdc.com           ssa
  285. IDETAPE       majordomo@dt.wdc.com idetape@dt.wdc.com       idetape
  286. Disk Attach   majordomo@dt.wdc.com disk_attach@dt.wdc.com   disk_attach
  287. 10bit         majordomo@dt.wdc.com 10bit@dt.wdc.com         10bit
  288. CD-Recordable majordomo@dt.wdc.com cdr@dt.wdc.com           cdr
  289. System Issues majordomo@dt.wdc.com si@dt.wdc.com            si
  290. MultiMedia    majordomo@dt.wdc.com mmc@dt.wdc.com           mmc
  291. IEEE P1394    bob.snively@eng.1. p1394@1.com            n/a (human)
  292.               com
  293. SFF           bob.snively@eng.1. sff_reflector@1.com    n/a (human)
  294.               com
  295. IPI           majordomo@think.com  ipi-ext@think.com        ipi-ext
  296. HIPPI         majordomo@think.com  hippi-ext@think.com      hippi-ext
  297. Fibre Chan.   majordomo@think.com  fibre-channel-ext@think. 
  298. fibre-channel-ext
  299.                                    com
  300. FC IP Prot.   majordomo@think.com  fc-ip-ext@think.com      fc-ip-ext
  301. PCMCIA        listserv@cirrus.com  pcmcia-gen@cirrus.com    pcmcia-gen
  302. FC Class 4    majordomo@northyork. fc-class4@northyork.com  fc-class4
  303.               hp.com
  304. FC Isoch.     majordomo@northyork. fc-isoch@northyork.hp.   fc-isoch
  305.               hp.com               com
  306.  
  307.  
  308. All of the majordomo and listserv reflectors are automatic.  To
  309. subscribe or unsubscribe, send a message to the subscribe/unsubscribe
  310. address with a line in the message body (not the subject line) of the
  311. following format:
  312.  
  313. command  reflector_name  [your_email_address]
  314.  
  315. NOTE: At least for the reflectors at majordomo@dt.wdc.com, your email
  316. address is optional.  If you include it and it doesn't match the
  317. address in the email headers, there will be a delay while humans
  318. verify your email address.
  319.  
  320. examples:
  321.  
  322. subscribe ata
  323. subscribe ssa
  324. subscribe ssa person@company.com
  325. subscribe atapi
  326. subscribe mmc
  327. subscribe fibre-channel-ext person@company.com
  328. subscribe pcmcia-gen person@company.com
  329. unsubscribe ssa person@company.com
  330. help
  331. lists
  332.  
  333. The other reflectors are managed by humans who are a little less picky
  334. about the request format, but not quite as prompt.  Please include
  335. your name, email address, phone, and fax numbers in the message body
  336. for the human-managed reflectors.
  337.  
  338. (with permission from John Lohmeyer, 95/5/10)
  339.  
  340. ------------------------------
  341. Subject: [3] Hierarchical Storage Management
  342. From: Hierarchical Storage Management
  343.  
  344. HSM systems transparently migrate files from disk to optical disk 
  345. and/or magnetic tape, usually robotically accessible.  Then when files are 
  346. accessed by a user, they transparently move them back to disk.
  347.  
  348. Watch for maximum file size limitations, sometimes limited by the 
  349. size of the media used, sometimes by the server's OS, and sometimes
  350. neither.
  351.  
  352. Some offer integrated backup. Some will manage multiple copies of
  353. files for data reliability.
  354.  
  355. Some offer integrated migration from other systems (ie, file servers 
  356. and/or workstations) to the central location disks, then to the central 
  357. location robotics. This generally requires changes to the on-disk file
  358. system format on the migration clients.
  359.  
  360. An item to watch for is that the file management may be exactly like
  361. Unix -- that is, all files appear to be online, and once they're
  362. deleted, they're gone forever, even though the data may still be on
  363. tape.
  364.  
  365. All of the subsections here are Unix-compatible (in various flavors)
  366. unless indicated otherwise.
  367.  
  368. Additional Information:
  369.  
  370. See also _DEC Professional_, February 1993, Page 40 and _Client/Server
  371. Today_, Dec. '94, p. 60.
  372.  
  373. The System-Managed Storage Guide by Howard W. Miller, $225 for first
  374. copy, $75 for additional copies for same company available from The
  375. Information Technology Institute, 136 Orchard Street, Byfield,
  376. Massachusetts, 01922-1605.
  377.  
  378.         (stith@fnal.gov)
  379.  
  380. Thomas Woodrow did an evaluation of NAStore, FileServ, DMF and Unitree
  381. in 1993. It can be obtained through
  382. http://www.nas.nasa.gov/NAS/TechReports/RNDreports/RND-93-014/RND-93-014.html
  383. or the Proc. 3rd NASA Goddard Conference on Mass Storage Systems and
  384. Technologies, Oct. 1993, pp. 187--216. Somewhat dated now but
  385. excellent methodology for comparing HSMs.
  386.  
  387. ------------------------------
  388. Subject: [3.1] Unitree {Brief}
  389. From: Hierarchical Storage Management
  390.  
  391. The uncle of UNIX HSMs. Developed primarily at Lawrence Livermore
  392. National Laboratories.  Commercialized by a company called DISCOS,
  393. then sold to OpenVision.  UniTree was sold to UniTree Software in
  394. December, 1994.  See http://www.unitree.com.
  395.  
  396. Many versions exist on different hardware platforms, including a
  397. National Storage Lab (NSL) UniTree commercialized by IBM - Fed
  398. Systems. It's also available on SGI, Convex, and Amdahl hardware, at
  399. least.
  400.  
  401.         See also "Epoch vs Unitree" below
  402.  
  403. For Convex, try
  404.  
  405.  
  406. Jim Wilson
  407. 214-497-3085
  408. jrwilson@convex.com
  409. Business Development
  410. Data Management Applications
  411. Convex Computer Corporation
  412.  
  413.  
  414. For most other platforms, call Open Vision at (800)223-OPEN or
  415. (510)426-6400.
  416.  
  417. New info:
  418.  
  419.  
  420. The latest release of UniTree, V1.9.1, has the following changes:
  421.     - Available directly from UniTree Software Inc.
  422.     - Support DEC, HP-UX, SGI, Sun
  423.     - GUI(Tcl/Tk) tools for installation and administration
  424.     - New name database structure
  425.     - Common Message Logger
  426.     - Parallel Migration and Staging
  427.     - Multiple Storage Hierarchy (Optical/Tape)
  428.     - FTP performance improvements (Read/Write 20MBs/16MBs)*
  429.     - NFS performance improvements (Read/Write 3.5MBs/2MBs)*
  430.     - Rule-based dynamic migration
  431.     - Support for new robots (e.g., STK 97xx)
  432.     - Support >2GB disk partitions on Sun
  433.     - 64K File Families
  434.     - Configurable media and drive types
  435.     - Departmental File Server Configuration
  436.     - Compatible with most backup software (Legato, CAM, SMArch)
  437.  
  438. Demo copy available for download from web site: www.unitree.com
  439.  
  440. New resellers in Asia, Europe, Australia
  441.  
  442.  
  443. * Measured on a dual cpu Sun Ultra3000 with 256MB and 10 disks
  444. -- 
  445. Francis Kim                Phone: (510) 833-3460
  446. Director of Sales and Marketing        FAX:   (510) 833-9345
  447. Unitree Software, Inc.            e-mail: francis@unitree.com
  448. 11875 Dublin Blvd. Suite A200E            WWW: http://www.unitree.com
  449. Dublin, Ca. 94568
  450.  
  451.  
  452. ------------------------------
  453. Subject: [3.1.1] Epoch vs Unitree
  454. From: Hierarchical Storage Management
  455.  
  456.     (Note: this evaluation is old, and should be taken with a
  457. grain of salt. rdv, 3/96)
  458.  
  459.         (6/93) We just bought both last year.  We bought an Epoch I
  460. with the 20 GB EO and 327 GB worm.  We will be upgrading it to an
  461. Epoch II soon.  We also bought Unitree from Titan to run on a Silicon
  462. Graphics server and hook up to the STK 3480 silo.  We hope to add more
  463. silos eventually.
  464.  
  465. Unitree is licensed based on storage capacity while Epoch is not.
  466. There may be an exception to this - STK just began reselling Epoch as
  467. the front end for their silos and I'm not sure how they handle
  468. licensing.
  469.  
  470. My office mate and I (I handle Epoch, he handles Unitree) have enjoyed
  471. comparing the merits/demerits of each over the last year.  Comparison
  472. in our case is slightly slanted due to the fact that the Epoch has
  473. optical disk while the Unitree system has 3480 tape - so some
  474. observations have more to do with media advantages/disadvantages.
  475.  
  476.  
  477.         Unitree
  478.  
  479. +  Allows large files - can span volumes
  480. +  Allows you to enlarge the cache easily, allows very large 
  481. cache
  482. +- Unitree has replaced several UNIX utilities with their own 
  483. (FTP, NFS and the file system).  This allows certain features to 
  484. work but is generally slower and disallows access to the archive when 
  485. you are on the server itself - unless you NFS mount!
  486. +  Allows deleted files to be saved for a specified time
  487. +  Allows multiple copies of files to be kept
  488. +  Data is copied to archive soon after creation
  489. +  Unitree runs on several different platforms
  490. -  Does not allow access to data until it is completely 
  491. reloaded
  492. -  Behaves poorly with small files (due to necessary overhead)
  493. -  Unitree is licensed to several vendors, so versions differ
  494. -  NFS access is so slow that we recommend it not be used for 
  495. file transfer - only for ls and du, etc.  Use FTP.
  496. -  The Silicon Graphics version is still new and has some 
  497. problems
  498.  
  499.         Epoch
  500.  
  501. +  Allows access to the data as soon as part of it is loaded
  502. +  Company seems serious about reputation and support
  503. +  The Epoch II is based on a SUN system, with few 
  504. modifications
  505. +  Data is copied to archive only when the cache space is 
  506. needed
  507. +  All native UNIX transfer methods work - NFS, FTP and RCP
  508. +  Add on products greatly simplify backup and extend 
  509. archiving features to other systems.
  510. -  Deleted files are gone forever
  511. -  Currently only available on SUN.  This will change.
  512. -  Cannot span volumes yet - limiting file size
  513. -  Has the SUN limitation of 2 Gb per filesystem.  This would 
  514. be a bigger problem if you used it for a 3480 silo.
  515. {Note 2GB of Magnetic Disk limit, not the entire HSM store}
  516. -  Behaves poorly with small files (due to necessary overhead)
  517. -  Since inodes are kept on magnetic cache, you must take 
  518. into account the maximum number of files you will ever need.
  519. -  Since inodes are always on disk, certain disk operations 
  520. can take forever since all inodes must be examined.
  521. -  Enlarging a magnetic disk filesystem which has associated 
  522. archive media requires you to offload all data and then reload it.  
  523. If anyone has found another way, I would like to hear about 
  524. it.
  525.                    {Others did offer some easier work-arounds}
  526.  
  527.  
  528. In all fairness to Titan, they have been addressing any problems and
  529. it has been improving.  Epoch too plans to address some of their
  530. shortcomings.  We are looking forward to growing with both products.
  531.  
  532. The likelihood that the various flavors of Unitree will standardize
  533. depends on what happens with Discos.  My guess is that some
  534. features/enhancements will be filtered back to the base product
  535. released by Discos.  Bye...
  536.  
  537.         (bodoh@dgg.cr.usgs.gov, 152.61.192.66, Tom Bodoh, USGS/EROS Data 
  538. Center, Sioux Falls, SD)
  539.  
  540. ------------------------------
  541. Subject: [3.2] National Storage Lab {Brief}
  542. From: Hierarchical Storage Management
  543.  
  544. NSL is an industry consortium (American companies only) that has a
  545. version of Unitree, and is creating their own new High Performance
  546. Storage System.
  547.  
  548. HPSS, among other features, supports striping of removable media, and
  549. full 64-bit files. Some of the work is being done at LLNL, where
  550. UniTree was originally developed.
  551. There's a good overview reachable at
  552. http://www.ccs.ornl.gov/HPSS/HPSS.html.
  553.  
  554. (rdv,95/1/12)
  555.  
  556. ------------------------------
  557. Subject: [3.3] HIARC {New}
  558. From: Hierarchical Storage Management
  559.  
  560. HIARC HSM runs on Solaris 2.4 and above.  Slides in at the vnode
  561. layer.  Supports 4mm, 8mm, 3480, DLT, VHS, D-1 and D-2 tape drives,
  562. and appropriate robotics (I don't have a specific list).  Removable
  563. media formats are standard (_which_ standard, I don't know).  Pricing
  564. from $4k to $25k is reasonable for the functionality.  See
  565. http://www.hiarc.com. (rdv, 97/3/20)
  566.  
  567. ------------------------------
  568. Subject: [3.4] Epoch (also known as StorageTek's NearNet) {Brief}
  569. From: Hierarchical Storage Management
  570.         See also "Epoch vs Unitree" in Appendix
  571.  
  572. ------------------------------
  573. Subject: [3.5] Zetaco/NETstor {Brief}
  574. From: Hierarchical Storage Management
  575.  
  576. NETstor can be reached at netstor-sales@netstor.com
  577.  
  578. NETstor, Inc. (formerly Zetaco, Inc.) is a leading provider of
  579. hierarchical online mass-storage systems for open systems.  Primarily
  580. NFS accessable systems with magnetic disks and optical-disk libraries.
  581. They have marketing agreements with Digital Equipment Corp, and
  582. Hewlett-Packard.
  583.  
  584.         (stith@fnal.gov)
  585.  
  586. Netstor was bought by Cheyenne, and is now sold by them
  587. (lily@access.digex.com, 10/95).
  588.  
  589. ------------------------------
  590. Subject: [3.6] R-Squared Infinity IFS 2 {Brief}
  591. From: Hierarchical Storage Management
  592.  
  593. Contact: Steve Wine, Manager, Mass Storage Products, R-Squared, 11211 
  594. East Arapahoe Rd, Englewood, CO  80112, 303/799-9292 or FAX 303/799-9297
  595.  
  596. ------------------------------
  597. Subject: [3.7] AMASS
  598. From: Hierarchical Storage Management
  599.  
  600. From Advanced Archival Products. Supports a huge range of devices,
  601. autochangers, and operating systems. Block-based movement of data
  602. between the hard disk cache and tape or optical tertiary storage.
  603. Systems run from a few gigabytes up to at least 12 TB, with prices
  604. dependent on capacity. New versions allow multiple cache disks. Slips
  605. right in to the VFS layer and looks like a normal Unix file system,
  606. with the plusses and minuses that entails. No file versioning or
  607. multiple copies yet. File creation is an Achilles' heel on
  608. performance. Since it's block based, files can be larger than a piece
  609. of media. Separate product DataMgr will migrate files from client
  610. machines to the AMASS server automatically (with FS changes, of
  611. course).
  612.  
  613. AMASS is now owned by EMASS, and you can find info at
  614. http://www.emass.com/Products/Software_Products/AMASS/AMASS_Top.html.
  615. (rdv, 1996/3/27)
  616.  
  617. ------------------------------
  618. Subject: [3.8] Tracer XFS {None}
  619. From: Hierarchical Storage Management
  620.  
  621. ------------------------------
  622. Subject: [3.9] Metior
  623. From: Hierarchical Storage Management
  624.  
  625. Metior (pronounced like meteor) is targetting an incredibly broad
  626. market, from laptops with removable media through supercomputers, with
  627. prices from $650(!) to $118K. They handle multiple coordinated copies,
  628. so off-site backup can be automatic. Can do migration for client
  629. machines (with appropriate software licenses and changes to the file
  630. system). The hierarchy seems to be extremely flexible, variable on a
  631. per-user or per-group basis. Machines without client licenses can
  632. mount the Metior FS using NFS. Runs on Suns, SGI, and HP 9000/700. ANT
  633. is new, and they've only got a handful of customers so far, but it
  634. looks _very_ interesting.
  635.  
  636. (info from habbott@csn.org, written by rdv, so it's my fault if it's
  637. not accurate) (rdv,94/7/7)
  638.  
  639. More information available on the WWW FAQ version.
  640. Also see them at http://anthill.com.
  641.  
  642. Automated Network Technologies
  643. 3333 South Bannock Street, Suite 945
  644. Englewood, CO 80110   USA
  645. Phone 303.789.2506
  646. FAX 303.789.2438
  647. Email hal@anthill.com
  648.  
  649.  
  650. ------------------------------
  651. Subject: [3.10] NAStore {Brief}
  652. From: Hierarchical Storage Management
  653.  
  654. NAStore is a Unix migrating file system developed by the Numerical
  655. Aerodynamic Simulation program at NASA Ames. It is available through
  656. NASA's software distribution agency, COSMIC. It currently runs only on
  657. Convex with 34x0 cartridges and Storage Tek robots. Looks like a local
  658. file system to users of the Convex.  Available with source.
  659.  
  660. Info on NAStore can be found on the web at
  661. http://chuck.nas.nasa.gov/NAStore/NAStoreQR.html
  662.  
  663.         COSMIC's address is :
  664.         University of Georgia
  665.         382 East Broad Street
  666.         Athens, Georgia, 30602-4272, US
  667.         011-706-542-3265
  668.         service@cossack.cosmic.uga.edu
  669.  
  670. For more information on NAStore, contact John Lekashman, lekash@nas.nasa.gov.
  671. (info from Bill Ross, bross@nas.nasa.gov, 94/9/15)
  672.  
  673. ------------------------------
  674. Subject: [3.11] DMF {Brief}
  675. From: Hierarchical Storage Management
  676.  
  677. Cray Research's Data Migration Facility. The grandaddy of Unix HSM
  678. systems. You can find info on DMF at
  679. http://www.cray.com/product-info/sw/SM/DMF_flyer.html, or call +1 612
  680. 683 3897 or email crayinfo@cray.com. It's reportedly
  681. running on more than 200 systems, and development is continuing. Large
  682. users are in the hundreds of TB, with millions of files and >1TB/day
  683. through DMF.
  684.  
  685. Information from:
  686. "Storage Management at Cray Research, Inc", Metcalfe, D.J. and Thompson. D.  
  687. "Data Migration Facility Development Update", Lazatella, T.W. and Bannister, N.
  688. Cray User Group, Barcelona, 1996, in press.
  689.  
  690. (Robert.Bell@dit.csiro.au, 1996/4/2)
  691.  
  692. ------------------------------
  693. Subject: [3.12] FileServ {Brief}
  694. From: Hierarchical Storage Management
  695.  
  696. From E-Systems. Works with the E-Systems ER-90 (D-2) tape drive and
  697. Odetics robots, as well as 3480 with the Storage Tek ACS 4400. Runs on
  698. Convexes (only?). Supports multiple copies of files. Retrieves only
  699. necessary info from tape to disk before completing request.
  700.  
  701. Reportedly no longer available on Convex, in beta test on SGI
  702. (lily@access.digex.net, 10/95)
  703.  
  704. Now owned by EMASS, info at
  705. http://www.emass.com/Products/Software_Products/FileServ/FileServ_Top.html.
  706.  
  707. ------------------------------
  708. Subject: [3.13] Cray Research's Open Storage Manager {Brief}
  709. From: Hierarchical Storage Management
  710.  
  711. They have some agreement with Legent Corporation. OSM runs on Sparc
  712. machines, including the Cray Superservers. Price ranges from $500 to
  713. $5,000, which is very cheap for HSM. However, it might only be capable
  714. of migrating among disks -- I don't see any mention of autochangers.
  715. (rdv, 94/12/9)
  716.  
  717. ------------------------------
  718. Subject: [3.14] T-mass {None}
  719. From: Hierarchical Storage Management
  720.  
  721. ------------------------------
  722. Subject: [3.15] HP OpenView OmniStorage
  723. From: Hierarchical Storage Management
  724.  
  725. Supports multiple types of tertiary media (optical, tape) though it
  726. seems to come originally from their work for their own MO jukeboxes.
  727. Supports multiple types of clients. (info from Herbert Volk
  728. <herbert@quirlie.bbn.hp.com>, 1995/9/28)
  729.  
  730. More info available at http://www.hp.com/go/openview.  Now a very broad
  731. storage management suite, covering lots of functionality for
  732. management.  Supports MO, DLT and 8mm as media, though only a limited
  733. number of autochangers. (rdv, 98/1/16)
  734.  
  735. ------------------------------
  736. Subject: [3.16] Platinum NetArchive-HSM {Brief, New}
  737. From: Hierarchical Storage Management
  738.  
  739. Used to be ASC (Advanced Systems Concept) before being bought by
  740. Platinum. Runs on SunOS, HP, and Domain/OS. Supports numerous optical
  741. jukeboxes. See http://www.platinum.com. (rdv, 96/4)
  742.  
  743. PLATINUM technology, inc.
  744. 1815 South Meyers Road
  745. Oakbrook Terrace, IL 60181
  746. 1-800-442-6861  -or-  708/620-5000
  747. e-mail: info@platinum.com
  748.  
  749. ------------------------------
  750. Subject: [3.17] Large Storage Configurations {Brief,New}
  751. From: Hierarchical Storage Management
  752.  
  753. http://www.lsci.com describes their Solaris-based HSM product. Only one
  754. computing platform, but a reasonably broad range of mid- to high-end
  755. peripherals and robotics supported, from little Exabyte autochangers
  756. to the IBM 3494 and STK silos. (rdv, 96/7/23)
  757.  
  758. ------------------------------
  759. Subject: [3.18] Unix HSM Vendor List
  760. From: Hierarchical Storage Management
  761.  
  762. This list is adapted from _Client/Server Today_, Dec. '94, with some
  763. of my own additions. All the phone numbers are USA (apologies to
  764. international readers for the 800 numbers, but they're all I've got). 
  765. I don't know anything about some of these companies; I suspect some of
  766. them work with HSM from other vendors rather than their own packages.
  767.  
  768. I've indicated on the list various reports of companies OEMing from
  769. each other; this is not out of disrespect for the work involved in
  770. OEMing/supporting or porting such complex software, but an attempt to
  771. divide the HSM vendors into "families" with similar capabilities
  772. (occassionally on very disparate platforms).
  773.  
  774. Vendor                    Product        Contact
  775. ------                    -------        -------
  776. Advanced Archival Products        AMASS        (303)792-9700 *
  777. Advanced Software Concepts (ASC)            (619)737-9544
  778. Alphatronix                ASC        (919)544-0001
  779. Artecon                    ASC        (619)931-5500
  780. AT&T CommVault                DataMigrator    (908)935-8000
  781. Automated Network Technologies (ANT)    Metior        (303)789-2506 *
  782. Computer Associates International            (800)225-5244
  783. Computer Upgrade                    (808)874-8807
  784. Convex Computer                UniTree        (214)497-3085 *
  785. COSMIC (NAStore)                    (706)542-3265 +
  786. Cray Research                DMF        (800)BUY-CRAY *
  787. Digital Equipment (DEC)            NETstor        (800)344-4825
  788. Dorotech                        (703)478-2260
  789. Epoch Systems                        (508)836-4300 *
  790. E-Systems                FileServ              ?*
  791. File Tek                Storage Machine    (301)251-0600
  792. Fujitsu Computer Products of America    OSM        (408)432-6333
  793. Hewlett-Packard            OmniStorage* ,NETstor    (800)637-7740x8509
  794. HIARC                            (714)253-6990
  795. IBM                    UniTree        (800)225-5426
  796. Introl                            (612)788-9391
  797. Large Software Configurations (LSC)            (612)482-4535 *
  798. Legent                    $OSM        (703)708-3000
  799. National Storage Lab (NSL)         HPSS                  +*
  800. NETstor (Cheyenne)            $NETstor    (612)890-9367
  801. (OpenVision                UniTree        (510)426-6400 *)
  802. Platinum                NetArchive HSM  (708)620-5000 *
  803. Qstar Technologies                    (301)762-9800
  804. Raxco                            (301)258-2620
  805. Software Partners/32                    (508)887-6409
  806. Storage Technology (STK, StorageTek)            (303)673-5151
  807. T-mass                                           ?
  808. Tracer XFS                                  ?
  809. UniTree Software            UniTree        (510)833-9344 *
  810.  
  811. * = Info elsewhere in FAQ
  812. + = not commercial product
  813. ? = no contact info
  814. $ = original developer (no mark indicates OEM)
  815.  
  816. ------------------------------
  817. Subject: [3.19] Mainframe
  818. From: Hierarchical Storage Management
  819.  
  820. IBM also has HSM for MVS, called, imaginatively, HSM.
  821.  
  822. There is the storage home page.  http://www.storage.ibm.com/storage/ I
  823. have also found references to System Managed Storage SMS and HSM and
  824. DFHSM (Data Facility Hierarchical Storage Manager) but could find no
  825. online information.  There are probably manuals like DFHSM Version 2
  826. Release 5.0, General Information manual (GH35-0092) if you are a real
  827. glutton for punishment and have a friend at ibm.
  828.  
  829. So we have ADSM and DFHSM and DFSMS and probably others.  But not much
  830. online information.  Sorry.
  831.  
  832. A little searching from the http://www.ibm.com might turn up something
  833. too.
  834.  
  835. (Del Cecchi, <dcecchi@VNET.IBM.COM>, 1996/3/27)
  836.  
  837. ------------------------------
  838. Subject: [3.20] PC & PC Server Oriented Packages
  839. From: Hierarchical Storage Management
  840.  
  841. ------------------------------
  842. Subject: [3.20.1] HP Optical Jukebox Storage Solution
  843. From: Hierarchical Storage Management
  844.         Netware 3.11 based, up to 10.4 Gigabytes, includes model 10LC optical 
  845. jukebox which has one drive and 16 disks each with 650 MB formatted capacity.  
  846. Hewlet-packard (Palo Alto, CA) 800/826-4111.
  847.  
  848. ------------------------------
  849. Subject: [3.20.2] Chili Pepper Software
  850. From: Hierarchical Storage Management
  851.  
  852. A company from Atlanta, GA named Chili Pepper Software (404-339-1812)
  853. and 3M have gotten together in some fashion to make HSM software for
  854. PCs using QIC. (rdv, 94/9/5)
  855.  
  856. ------------------------------
  857. Subject: [3.20.3] Cheyenne ARCserve
  858. From: Hierarchical Storage Management
  859.  
  860. Runs on Netware servers. Transparent to most clients, but has a neat
  861. feature: if you use a special TSR and DLL on client PCs, when it has
  862. to retrieve a file from secondary or tertiary storage, it can give you
  863. an estimated retrieval time and the option to abort. (516)484-5110,
  864. (800)243-9462.
  865. (rdv,95/02/14)
  866.  
  867. ------------------------------
  868. Subject: [3.21] DATMAN {Brief}
  869. From: Hierarchical Storage Management
  870.  
  871. Simple HSM for 4mm tape drives under MS-DOS. A limited freeware
  872. version is available.
  873.  
  874. More info at http://www.datman.com. 
  875. Voice: 708-369-7112 Fax: 708-369-7113 (Kan Yabumoto,
  876. yabumoto@datman.com, Nov. 1995)
  877.  
  878. ------------------------------
  879. Subject: [3.22] Windows NT
  880. From: Hierarchical Storage Management
  881.  
  882. Try:
  883.  
  884. Avail Systems
  885. 4760 Walnut St
  886. Boulder, CO  80301
  887. voice: +1.303.444.4018
  888.   fax: +1.303.546.4219
  889.  
  890. dave_skinner@intellistor.com (Dave Skinner) (95/2/12)
  891.  
  892. Avail's product, NetSpace HSM, has been selected by Microsoft to be
  893. incorporated into future versions of NT, and also provides a link
  894. between NetWare and IBM's ADSM. NetSpace also runs on Novell NetWare
  895. systems. See http://www.avail.com ("Wight, Risa" <risa@avail.com>,
  896. 95/10/17)
  897.  
  898. ------------------------------
  899. Subject: [3.23] Other Non-Unix HSM
  900. From: Hierarchical Storage Management
  901.  
  902. DEC's old Tops-20 OS supported offline files, and would generate an
  903. automatic request to the operator to mount a tape when the user
  904. accessed the file. When you listed a directory, it would show you
  905. which files were online and which off.
  906.  
  907. DEC's OpenVMS has some sort of support for this now. VMS 6.1 supports
  908. "shelved" files.
  909.  
  910. There is also the product Virtual Branches, from Acorn Software, which
  911. does HSM for MO and CD-ROM for OpenVMS.
  912.  
  913.  
  914. Acorn Software, Inc.
  915. 267 Cox St.
  916. Hudson, MA  01749
  917. voice:  (508)568-1618
  918. fax:    (508)562-1133
  919. Internet:  info@acornsw.com
  920.  
  921.  
  922. ------------------------------
  923. Subject: [3.24] Tapes as Disks {Brief, New}
  924. From: Hierarchical Storage Management
  925.  
  926. There are several packages around (mostly for PCs) that will let you
  927. use a tape drive like a disk drive.  Of course, it's _very_ slow
  928. unless it uses some disk-based information as well.
  929.  
  930. See http://www.tapedisk.com for one such product. (rdv, 96/11/4)
  931.  
  932. ------------------------------
  933. Subject: [4] Backup Software
  934. From: Backup Software
  935.  
  936. Backup software usually provides some form of management of files,
  937. tapes, and autochangers. Retrieval of files is not automatic (as in
  938. true HSM). These are designed to allow you to recover from disk or
  939. file system failures, and to recover files accidentally (or
  940. maliciously) deleted or corrupted. Some work in conjunction with HSM
  941. systems, which are often vulnerable to the latter class of problems.
  942.  
  943. I've concentrated here on backup software that supports various
  944. autochangers, as this is of more interest to people in this group than
  945. standalone software for backing up one hard disk onto one tape.
  946.  
  947. ------------------------------
  948. Subject: [4.1] PC-Oriented Backup Packages
  949. From: Backup Software
  950.  
  951. I don't think any of the PC operating systems come with tape support
  952. built in, so you have to have some 3rd party software to work with
  953. tape. This short list is primarily oriented toward PC servers.
  954. It's partly derived from _PC Magazine_, March 29, 1994, pp. 227-272.
  955.  
  956. Note that there has been an ongoing discussion of the pitfalls of
  957. Windows 95 and third-party backup software; many in particular are
  958. having trouble with long file names.
  959.  
  960. Arcada Software - Storage Exec.        (NT)
  961. Avail                    (NT)
  962. Cheyenne Software - ArcServe        (Netware)
  963. Conner Storage Systems - Backup Exec    (Netware)
  964. Emerald Systems - Xpress Librarian
  965. Fortunet - NSure NLM/AllNet
  966. Hewlett Packard - OmniBack II        (NT)
  967. Legato - NetWorker            (Netware)
  968. Mountain Network Solutions - FileSafe
  969. NovaStor                (Netware)
  970. Palindrome - Network Archivist        (Netware, OS/2, Windows)
  971. Palindrome -Backup Director
  972. Performance Technology - PowerSave    (Netware)
  973. Systems Enhancement - Total Network Recall
  974.  
  975. Arcada is at 800/327-2232 and at http://www.arcada.com.
  976.  
  977. {Under Construction}(SHMO)
  978.  
  979. ------------------------------
  980. Subject: [4.2] Unix Packages
  981. From: Backup Software
  982.  
  983. Some people claim "Unix tape support is an oxymoron," so there's a big
  984. market in outdoing tar, dump, dd and cpio.
  985.  
  986. APUnix - FarTool
  987. Cheyenne - ArcServe (see under PCs, above)
  988. Dallastone - D-Tools
  989. Delta MicroSystems (PDC) - BudTool
  990. Epoch Systems - Enterprise Backup
  991. IBM - ADSM (Adstar Distributed Storage Manager)
  992. Hewlett Packard - OmniBack II
  993. Legato - Networker
  994. Network Imaging Systems
  995. Open Vision - AXXion Netbackup 2.0 Software http://www.ov.com/product/nb.html
  996. Software Moguls - SM-arch
  997. Spectra Logic - Alexandria
  998. Workstation Solutions
  999.  
  1000. {Under Construction}(SHMO)
  1001.  
  1002. ------------------------------
  1003. Subject: [4.2.1] Spectra Logic Alexandria
  1004. From: Backup Software
  1005.  
  1006. Spectra Logic makes 4mm & 8mm autochangers, but this software supports
  1007. other autochangers as well. Has a nice feature that it claims to be
  1008. capable of backing up live Oracle, Informix and Sybase databases.
  1009. email alexandria@spectra.wali.com. (rdv,95/2/14) On the web at
  1010. http://www.spectralogic.com
  1011.  
  1012. ------------------------------
  1013. Subject: [4.2.2] ADSTAR Distributed Storage Manager
  1014. From: Backup Software
  1015.  
  1016. Runs on everything from OS/2, AIX and OS/400 to VSE/ESA, MVS and VM
  1017. providing backups for virtually everything you can think of in PCs and
  1018. workstations. (800)IBM-3333 or anonymous ftp to index.storsys.ibm.com.
  1019. (rdv,95/2/14) http://www.storage.ibm.com/storage/software/software.htm
  1020. or http://www.storage.ibm.com/storage/hardsoft/software/html/adsmhome.htm.
  1021.  
  1022. ------------------------------
  1023. Subject: [4.2.3] NetWorker
  1024. From: Backup Software
  1025.  
  1026. Backup software. See http://www.legato.com. Runs on a wide variety of
  1027. platforms and supports a bunch of types of autochangers.
  1028.  
  1029. Legato Systems, Inc. 
  1030. 3145 Porter Drive
  1031. Palo Alto, CA 94304 
  1032. Phone: 415-812-6000 
  1033. Fax Number: 415-812-6032 
  1034. Fax-on-demand: 415-812-6156 
  1035.  
  1036. ------------------------------
  1037. Subject: [4.2.4] BudTool {Brief}
  1038. From: Backup Software
  1039.  
  1040. PDC Engineering
  1041. 111 Lindbergh Avenue
  1042. Suite C
  1043. Livermore, CA 94550 USA
  1044. (510) 449-6881
  1045. FAX (510) 449-6885
  1046.  
  1047. See http://www.pdc.com.
  1048.  
  1049. ------------------------------
  1050. Subject: [4.2.5] HP OmniBack II {Brief, New}
  1051. From: Backup Software
  1052.  
  1053. HP's OmniBack II runs on several different platforms, and splits the
  1054. functionality up.  The Backup manager appears to run only on NT, but
  1055. it can use devices attached to various flavors of Unix, and backs up
  1056. ten different kinds of Unix and PC clients.  Now marketed jointly with 
  1057. OmniStorage, their HSM system, in a (sales) program they call
  1058. OpenView.  See http://www.hp.com/go/openview. (rdv, 98/1/16)
  1059.  
  1060. ------------------------------
  1061. Subject: [4.2.6] Workstation Solutions {Brief}
  1062. From: Backup Software
  1063.  
  1064. See http://www.worksta.com. Runs on a variety of Unix platforms, and
  1065. supports a reasonably broad range (20GB-5TB) of autochangers and tape
  1066. systems (4mm, 8mm, DLT, VHS). (rdv, 96/7/8)
  1067.  
  1068. ------------------------------
  1069. Subject: [4.2.7] Amanda {Brief, New}
  1070. From: Backup Software
  1071.  
  1072. Subscribe to amanda-hackers-request@cs.umd.edu and
  1073. amanda-users-request@cs.umd.edu for some time.  The "current"
  1074. distibution of Amanda seems to be from ftp.gps.caltech.edu:/pub/amanda,
  1075. with version 2.3.0.3.  A very good backup system, with no dollar
  1076. investment.  (David Olsen, <olsen@1-avd2.ds.boeing.com>, 1/23/97)
  1077.  
  1078. You'll also find a FAQ on it at
  1079. http://ugrad-www.cs.colorado.edu/~teich/amanda.
  1080.  
  1081. ------------------------------
  1082. Subject: [4.2.8] Remote Backup or Mirroring {Brief, New}
  1083. From: Backup Software
  1084.  
  1085. It's now possible, in several fashions, to backup systems over a
  1086. network or even a modem, for recovery from fires and even disk
  1087. crashes.
  1088.  
  1089. Channel extenders, such as the CHANNELink
  1090. http://www.cnt.com/products/clnk/clnk2.htm from CNT and the Symmetrix
  1091. Remote Data Facility http://www.emc.com/symmdoc.htm, are used by some
  1092. mainframe systems to create remote copies of disks (remote mirroring)
  1093. as a disaster recovery measure. Early systems used dedicated fibre or
  1094. telephone lines and ran proprietary communications protocols. Newer
  1095. systems from CNT are capable of communicating over general-purpose
  1096. wide-area networks, thus saving the costs of the dedicated lines.
  1097.  
  1098. It's also possible to backup PCs over your modem in an incremental
  1099. fashion, through your ISP; one example is http://www.telebackup.com.
  1100.  
  1101. Two other companies that do this over the Internet (out of, I believe,
  1102. more than 30) are Connected Corp., Framingham, MA; Virtual Technology
  1103. Corp., Minneapolis, MN.
  1104.  
  1105.  
  1106. ------------------------------
  1107. Subject: [5] Tape and Autochanger Management Software
  1108. From: Tape and Autochanger Management Software
  1109.  
  1110. This category of software can overlap with both HSM and backup, above,
  1111. and basic tools are often available from the autochanger hardware
  1112. vendors, below.  New additions to this category welcome -- I'm sure
  1113. there are numerous vendors I don't know. Functionality varies widely,
  1114. from rudimentary "move the cartridge" interfaces to sophisticated
  1115. tape-tracking databases. (rdv, 95/6/1)
  1116.  
  1117. ------------------------------
  1118. Subject: [5.1] REELlibrarian
  1119. From: Tape and Autochanger Management Software
  1120.  
  1121. Actually a whole set of software tools from Storage Tek, available
  1122. through Software Clearing House, http://www.sch.com/stor001.html.
  1123. Manages different types of media for you, including 3480 in STK silos,
  1124. under MVS or Unix. (rdv from esj@atlas.sch.com, 95/6/1)
  1125.  
  1126. ------------------------------
  1127. Subject: [5.2] ANT Medium Changer
  1128. From: Tape and Autochanger Management Software
  1129.  
  1130. There is a public version of a Solaris 2.x Medium Changer driver
  1131. with a set of command line utilities in our FTP server.
  1132. Only restriction is that you cannot bundle it with another product
  1133. or resell it (intended for end-user use only).
  1134.  
  1135. anthill.com:/pub/distrib/mc/solaris2.x/medium_changer.tar.Z
  1136. or http://anthill.com/techsupport.html (Tim Sesow, ANT, 1995/9/21)
  1137.  
  1138. ------------------------------
  1139. Subject: [5.3] Tapes 3000 {Brief}
  1140. From: Tape and Autochanger Management Software
  1141.  
  1142. Tapes3000 is a UNISON/TYMLABS product that puts a label on a reel
  1143. tape, DDS, any kind of media storage and adds it to a "tapes database"
  1144. so you do not have to manually log and label backup tapes or special
  1145. request tapes, and possibally make a mistake. You can also use this
  1146. for unlabeled media, but then you would have to manually log the
  1147. media. You are able to set a "dataset" for differrent retentions
  1148. (Generations, weekly, monthly, daily etc). Then when those criteria
  1149. are met the program will automatically scratch those tapes, then you
  1150. run a report and it will give you a list of what scratched for that
  1151. day, week, or whatever time you want to run the job.
  1152.  
  1153. Tapes3000 is part of a package that you can receive called MAESTRO
  1154. which is a job scheduler program. Not an autochanger control package,
  1155. just tape management software. (R Johnson
  1156. <rljohn@lss2.labsafetysupply.com>, 1996/3/25)
  1157.  
  1158. ------------------------------
  1159. Subject: [5.4] Others
  1160. From: Tape and Autochanger Management Software
  1161.  
  1162. Many of the HSM (including EMASS, above, with their VolServ) and
  1163. backup vendors also sell simple autochanger control interfaces. Check
  1164. with them.
  1165.  
  1166. Some things I've read indicate that one or more of the
  1167. university-based projects ought to have a freely available autochanger
  1168. controller; if anybody has any info on this let me know.
  1169.  
  1170. ------------------------------
  1171. Subject: [6] Robotics (Autochangers, Jukeboxes, Stackers, Libraries)
  1172. From: Robotics (Autochangers, Jukeboxes, Stackers, Libraries)
  1173.  
  1174. I use the term "robotics" to refer to access to multiple removable 
  1175. volumes by a fewer number of drives without a person.  This includes 
  1176. sequential stackers, as well as random access robotics.
  1177.  
  1178. A stacker typically is capable of taking (literally) a stack of tapes
  1179. and putting them into the drive one at a time, in order. No random
  1180. access to specific tapes, as with a full-function autochanger.
  1181. Stackers typically are limited to 8-10 cartridges, and are used by
  1182. people whose backups have exceeded the size of one cartridge.
  1183.  
  1184. In the larger media formats, such as D-1, D-2, Betacam, etc., the
  1185. traditional manufacturers of broadcast autochangers, such as Asaca,
  1186. Odetics, Sony, etc. have products that are easily adaptable to storage
  1187. use.
  1188.  
  1189. The August 1996 issue of Byte magazine has an article comparing 12
  1190. tape autochangers.  It is a little misleading, not mentioning any of
  1191. the truly large library systems, and only one midrange, whose capacity 
  1192. is quoted assuming DLT 7000 tape drives, which is never mentioned.  In 
  1193. addition, much of their testing is more related to the drives than the 
  1194. autochangers.
  1195.  
  1196. ------------------------------
  1197. Subject: [6.1] 8mm {Brief}
  1198. From: Robotics (Autochangers, Jukeboxes, Stackers, Libraries)
  1199.  
  1200. ------------------------------
  1201. Subject: [6.1.1] Exabyte {Brief}
  1202. From: Robotics (Autochangers, Jukeboxes, Stackers, Libraries)
  1203.  
  1204. Phone: 800/EXABYTE, 1685 38th st, Boulder, CO 80301, Fax 303/447-7689.
  1205. On the web at http://www.exabyte.com.
  1206.  
  1207. ------------------------------
  1208. Subject: [6.1.1.1] EXB-10h
  1209. From: Robotics (Autochangers, Jukeboxes, Stackers, Libraries)
  1210.  
  1211. Current model, 10 cartridges, one drive.  Not Mammoth compatible.  70
  1212. GB, uncompressed.  (rdv,96/8/29).
  1213.  
  1214. ------------------------------
  1215. Subject: [6.1.1.2] EXB-210
  1216. From: Robotics (Autochangers, Jukeboxes, Stackers, Libraries)
  1217.  
  1218. 2 drives, 11 cartridges, not Mammoth compatible.
  1219.  
  1220. ------------------------------
  1221. Subject: [6.1.1.3] EXB-220
  1222. From: Robotics (Autochangers, Jukeboxes, Stackers, Libraries)
  1223.  
  1224. 2 drives, 20 cartridges, Mammoth compatible (rdv,96/8/29).
  1225.  
  1226. ------------------------------
  1227. Subject: [6.1.1.4] EXB-440/480
  1228. From: Robotics (Autochangers, Jukeboxes, Stackers, Libraries)
  1229.  
  1230. 40 or 80 cartridges, 2 or 4 drives, Mammoth compatible. 1.6 TB
  1231. uncompressed, with Mammoth.  (rdv,96/8/29).
  1232.  
  1233. ------------------------------
  1234. Subject: [6.1.1.5] EXB-10
  1235. From: Robotics (Autochangers, Jukeboxes, Stackers, Libraries)
  1236.  
  1237. Ten cartridges, one full-height drive.  Original 10 cartridge robot.
  1238. No robotic intelligence, when one tape comes out, the robot mounts the
  1239. next tape in sequence (i.e. a kind of stacker).  Button selectable to
  1240. loop back to the first tape or to stop at the end.  Discontinued.
  1241.  
  1242. ------------------------------
  1243. Subject: [6.1.1.6] EXB-10i
  1244. From: Robotics (Autochangers, Jukeboxes, Stackers, Libraries)
  1245.  
  1246. Ten cartridges, one full-height drive. Released
  1247. shortly after the EXB-10.  Includes SCSI attachment to robotics.  Now
  1248. nearly replaced by the EXB-10e.  Discontinued.
  1249.  
  1250. ------------------------------
  1251. Subject: [6.1.1.7] EXB-10e
  1252. From: Robotics (Autochangers, Jukeboxes, Stackers, Libraries)
  1253.  
  1254. Ten cartridges, one full-height drive.  Announced around 4/93.
  1255. Includes better control panel and display than EXB-10i.  Drive mounted
  1256. horizontal and tape magazine at slight angle (rather than vice-versa
  1257. in EXB-10i).  Discontinued.
  1258.  
  1259. ------------------------------
  1260. Subject: [6.1.1.8] EXB-120
  1261. From: Robotics (Autochangers, Jukeboxes, Stackers, Libraries)
  1262.  
  1263. Holds 120 8mm cartridges, up to four full-height drives.
  1264. Discontinued.
  1265.  
  1266. ------------------------------
  1267. Subject: [6.1.2] ADIC {Brief, New}
  1268. From: Robotics (Autochangers, Jukeboxes, Stackers, Libraries)
  1269.  
  1270. I'm not sure if ADIC manufactures or OEMs their robotics, but they
  1271. apparently sell to end users.  They have 8mm, 4mm and DLT autochangers
  1272. in a variety of small to medium sizes, up to about a terabyte.  See
  1273. http://www.adic.com. (rdv,97/3/18)
  1274.  
  1275. ------------------------------
  1276. Subject: [6.1.3] Storage Tek (was Lago) DataWheel {Brief}
  1277. From: Robotics (Autochangers, Jukeboxes, Stackers, Libraries)
  1278.  
  1279.  Holds 54 8mm tape cartridge in a carousel with 2 8mm drives. The
  1280. carousels are removable. Now Storage Tek, used to be a small company
  1281. called LAGO, which apparently no longer exists.
  1282.  
  1283. You'll find info at: http://www.stortek.com/StorageTek/9708.html. (rdv,
  1284. updated 1996/3/22)
  1285.  
  1286. ------------------------------
  1287. Subject: [6.1.4] ACL {None}
  1288. From: Robotics (Autochangers, Jukeboxes, Stackers, Libraries)
  1289.  
  1290. ------------------------------
  1291. Subject: [6.1.5] Cambridge On-Line Storage {Brief}
  1292. From: Robotics (Autochangers, Jukeboxes, Stackers, Libraries)
  1293.         Sixty and 240 GB libraries, 713/981-3812
  1294.  
  1295. ------------------------------
  1296. Subject: [6.1.6] Spectra Logic {Brief}
  1297. From: Robotics (Autochangers, Jukeboxes, Stackers, Libraries)
  1298.  
  1299. Spectra Logic makes SCSI-controlled 8mm and 4mm (DAT) autochangers.
  1300. One to four drives, with 20 to 60 slots. Capacity currently up to 600
  1301. GB of DDS-2 (4mm) or 300 GB 8mm. Early models (STL-6000 & STL-8000)
  1302. were a rotating carousel. Newer ones use an arm and the tapes don't
  1303. move.
  1304.  
  1305. Supported by a variety of software vendors. List prices of $9K
  1306. (Spectra 4000/20 slots, one DDS-2 drive) to $31K (60 slots with four
  1307. drives and barcode support) including drives.
  1308.  
  1309. They also make a thing called TapeFrame, which consists of several of
  1310. their autochangers working in conjunction, with capacities up to 2.2
  1311. TB.
  1312.  
  1313. U.S.: 1-800-833-1132 or 303-449-6400
  1314.  
  1315. (Britt Terry, britt@spectra.wali.com, 95/1/12)
  1316.  
  1317. See also under backup software, and on the web at
  1318. http://www.spectralogic.com.
  1319.  
  1320. ------------------------------
  1321. Subject: [6.1.7] Qualstar {Brief}
  1322. From: Robotics (Autochangers, Jukeboxes, Stackers, Libraries)
  1323.  
  1324. Makes 8mm libraries that hold 10 to 120 cartridges and 2 to 6 drives.
  1325. tel:(818)592-0116 fax:(818)592-0061 or http://www.qualstar.com
  1326. (rdv,95/2/14)
  1327.  
  1328. Our TLS-4000 8mm library family now supports the Sony SDX-300C drive. 
  1329. Production shipments have started and enduser installations have 
  1330. occurred. Early field reports are completely positive. 
  1331.  
  1332. TLS-4000 also supports Exabyte Mammoth and 8505XL drives. 
  1333.  
  1334. (Bob Covey, covey@qualstar.attmail.com, 96/10/22)
  1335.  
  1336. ------------------------------
  1337. Subject: [6.2] 3480
  1338. From: Robotics (Autochangers, Jukeboxes, Stackers, Libraries)
  1339.  
  1340. ------------------------------
  1341. Subject: [6.2.1] StorageTek {Brief}
  1342. From: Robotics (Autochangers, Jukeboxes, Stackers, Libraries)
  1343.  
  1344. Storage Tek makes huge autochangers, referred to as silos, round and
  1345. several (~5) meters in diameter. They hold 6,000 3480-style tapes. At
  1346. original 3480 densities, that's only 1.2 TB per silo, but capacities
  1347. have gone up to (I think) 800 MB/cartridge, and are poised for a HUGE
  1348. jump if Storage Tek gets their Redwood tape drive finished (in beta
  1349. test, 12/94), up to 20 GB/cartridge, 120 TB/silo.
  1350.  
  1351. There is a smaller silo, known as WolfCreek, that holds 500-1000
  1352. cartridges.
  1353.  
  1354. STK also OEMs a 3480 autochanger from Odetics. Holds ~260 cartridges,
  1355. I think, in rotating drum, with room for ?2? tape drives above it.
  1356. (rdv,95/1/12) However, I couldn't find any info about this on the web
  1357. site.
  1358.  
  1359. They also have a web site at http://www.stortek.com. (95/5/16,rdv)
  1360.  
  1361. All but the Odetics (known as Ocean, I think) are Redwood-compatible.
  1362.  
  1363. The new 9710 (codenamed Panther) can handle both DLT and 3480
  1364. cartridges in a mini-tower. (quodlingp@cim.alcatel.oz.au, 1996/3/12)
  1365.  
  1366. ------------------------------
  1367. Subject: [6.2.2] EMASS (was GRAU) {Brief}
  1368. From: Robotics (Autochangers, Jukeboxes, Stackers, Libraries)
  1369.  
  1370. Grau, a German manufacturer, makes high-end, very large capacity
  1371. mixed-media autochangers known as the ABBA series, targetted I believe
  1372. primarily at the IBM mainframe market. (rdv,94/11/7)
  1373.  
  1374. Bought by EMASS, see http://www.emass.com.  They support 3480, D-2, MO,
  1375. VHS, DLT, 8mm all in one robot, so they renamed the autochanger series
  1376. the AML, Automated Mixed-Media Libraries.
  1377.  
  1378. ------------------------------
  1379. Subject: [6.2.3] 3590 (Magstar,NTP) {Brief}
  1380. From: Robotics (Autochangers, Jukeboxes, Stackers, Libraries)
  1381.  
  1382. MountainGate has announced that they will have, later this year, a
  1383. 300-cartridge autochanger.
  1384.  
  1385. IBM of course makes numerous autochangers for NTP; the 3494 and 3495
  1386. models both support it. More info at
  1387. http://www.storage.ibm.com/storage/hardsoft/tapls.htm. (They probably
  1388. have smaller libraries, too.)
  1389.  
  1390. Word in the newsgroup has it that STK robots won't support Magstar due
  1391. to the rivalry between IBM and STK.
  1392.  
  1393. (rdv,1996/3/12)
  1394.  
  1395. ------------------------------
  1396. Subject: [6.3] 4mm {Brief}
  1397. From: Robotics (Autochangers, Jukeboxes, Stackers, Libraries)
  1398.  
  1399. ------------------------------
  1400. Subject: [6.3.1] Cambridge On-Line storage {Brief}
  1401. From: Robotics (Autochangers, Jukeboxes, Stackers, Libraries)
  1402.         Libraries of 120 and 40 GB, 713/981-3812
  1403.  
  1404. ------------------------------
  1405. Subject: [6.3.2] Spectra Logic {Brief}
  1406. From: Robotics (Autochangers, Jukeboxes, Stackers, Libraries)
  1407.  
  1408. Spectra Logic makes SCSI-controlled 8mm and 4mm autochangers. See
  1409. above under 8mm autochangers.
  1410.  
  1411. ------------------------------
  1412. Subject: [6.3.3] HP 4mm {Brief}
  1413. From: Robotics (Autochangers, Jukeboxes, Stackers, Libraries)
  1414.  
  1415. I think HP makes their own 4mm autochangers.
  1416.  
  1417. ------------------------------
  1418. Subject: [6.3.4] Storage Tek Datawheel {Brief}
  1419. From: Robotics (Autochangers, Jukeboxes, Stackers, Libraries)
  1420.  
  1421. The 4mm version. 25 cartridges, so up to 100GB uncompressed. Info at
  1422. http://www.stortek.com/StorageTek/9704.html.
  1423.  
  1424. ------------------------------
  1425. Subject: [6.3.5] Diverse Logistics Libra {Brief, New}
  1426. From: Robotics (Autochangers, Jukeboxes, Stackers, Libraries)
  1427.  
  1428. Two libraries, the Libra-8 and Libra-16, with 8 or 16 slots (32 or 64
  1429. GB uncompressed) and one DAT drive.  Info at http://www.dilog.com or
  1430. http://www.dlig.ch (Europe), info@dliog.com or
  1431. info@dilog.ch. (schaefer@dilog.ch (Marc SCHAEFER), 96/8/6)
  1432.  
  1433. ------------------------------
  1434. Subject: [6.3.6] Qualstar {Brief, New}
  1435. From: Robotics (Autochangers, Jukeboxes, Stackers, Libraries)
  1436.  
  1437. See http://www.qualstar.com.
  1438.  
  1439. We are now shipping our TLS-2000 4mm tape library family. This product 
  1440. line consists of 6 models ranging from 1-2 drives with 18 tapes, to 1-4 
  1441. drives with 144 tapes. All units include a mailbox and barcode support. I 
  1442. believe that the TLS-24144 is the largest 4mm library in production. 
  1443. TLS-2000 supports Seagate, Sony and HP DDS-2 drives and we are about to 
  1444. start testing the Sony SDT-9000 DDS-3 drive. 
  1445. (Bob Covey, covey@qualstar.attmail.com, 96/10/22)
  1446.  
  1447. ------------------------------
  1448. Subject: [6.3.7] ADIC {Brief, New}
  1449. From: Robotics (Autochangers, Jukeboxes, Stackers, Libraries)
  1450.  
  1451. I'm not sure if ADIC manufactures or OEMs their robotics, but they
  1452. apparently sell to end users.  They have 8mm, 4mm and DLT autochangers
  1453. in a variety of small to medium sizes, up to about a terabyte.  See
  1454. http://www.adic.com. (rdv,97/3/18)
  1455.  
  1456. ------------------------------
  1457. Subject: [6.4] VHS {Brief}
  1458. From: Robotics (Autochangers, Jukeboxes, Stackers, Libraries)
  1459.  
  1460. ------------------------------
  1461. Subject: [6.4.1] MountainGate (was Metrum)
  1462. From: Robotics (Autochangers, Jukeboxes, Stackers, Libraries)
  1463.  
  1464. Metrum's data storage division was bought by Lockheed Martin and
  1465. renamed MountainGate.
  1466.  
  1467. Autochangers for their VHS-based high-capacity (20GB, 2 MB/sec.) tape
  1468. drive. They now have a stacker available for standalone drives.
  1469.  
  1470. Library of 960 GB (RSS-48b) holds 2 drives and 48 cartridges in a
  1471. rotating drum.
  1472.  
  1473. Library of 12 TB (RSS-600b) holds 5 drives and 600 cartridges in less
  1474. than 20 square feet of floor space. The tapes are held in rotating
  1475. drums on each side, with the drives in a rack in between.
  1476.  
  1477. OEMs through Convex, IBM, and a host of resellers. Integrated with
  1478. various backup and HSM packages, including UniTree from Convex & IBM,
  1479. and AMASS from AAP.
  1480.  
  1481. See MountainGate also under MO and DLT autochangers.
  1482.  
  1483. MountainGate
  1484. A Lockheed Martin Company
  1485. 9393 Gateway Drive
  1486. Reno NV
  1487. 89511-8910
  1488. 702-851-9393 Phone
  1489. 702-851-5533 Fax
  1490.  
  1491. See them on the web at http://www.mountaingate.com, but as of today
  1492. (1996/3/19) doesn't have much on the high-end products.
  1493.  
  1494. ------------------------------
  1495. Subject: [6.5] Digital Linear Tape (DLT) (Quantum) {Brief}
  1496. From: Robotics (Autochangers, Jukeboxes, Stackers, Libraries)
  1497.  
  1498. T* names are DEC's names, DLT2* names are OEM names.
  1499.  
  1500. ------------------------------
  1501. Subject: [6.5.1] TZ877 {Brief}
  1502. From: Robotics (Autochangers, Jukeboxes, Stackers, Libraries)
  1503.  
  1504.         One TZ87 tape drive, 7 cartridges, each 10GB native
  1505.         Presumed to be the same as the DLT2700 library.
  1506.         Ref: Digital's Customer Update, March 14, 1994
  1507.  
  1508.  
  1509. ------------------------------
  1510. Subject: [6.5.2] TL820 {Brief}
  1511. From: Robotics (Autochangers, Jukeboxes, Stackers, Libraries)
  1512.  
  1513.         Holds 3 TZ87 tape drives, 264 catridges, five libraries attachable
  1514.         Presumed to be Odetics made (714/774-5000)
  1515.         About $150K U.S.
  1516.         Ref: Digital's Customer Update, March 14, 1994
  1517.  
  1518. ------------------------------
  1519. Subject: [6.5.3] MountainGate
  1520. From: Robotics (Autochangers, Jukeboxes, Stackers, Libraries)
  1521.  
  1522. At Comdex '94 in Vegas, Metrum (now MountainGate) introduced the D-900
  1523. (900 cartridges, up to 20 drives, 9TB uncompressed for DLT-2000) and
  1524. D-360 (360 cartridges, up to 8 drives, 3.6 TB uncompressed for
  1525. DLT-2000) DLT autochangers. There is an expansion unit with 480
  1526. cartridges which may hold two drives. Up to eight D-360 or D-480 units
  1527. can be connected via passthrough. They also introduced 28 and 60
  1528. cartridge DLT autochangers. Customer shipments starting in early '95. 
  1529.  
  1530. See above under VHS for contact info.
  1531.  
  1532. ------------------------------
  1533. Subject: [6.5.4] Breece Hill {Brief}
  1534. From: Robotics (Autochangers, Jukeboxes, Stackers, Libraries)
  1535.  
  1536. Breece Hill makes two small (28 and 60 cartridges) DLT autochangers.
  1537. On the web at http://www.csnet.net/breece_hill/
  1538.  
  1539. Breece Hill Technologies, Inc.
  1540. 6287 Arapahoe Avenue
  1541. Boulder, Colorado 80303 USA 
  1542.  
  1543. For more Information 1-800-941-0550 or 303-449-2673
  1544.  
  1545. ------------------------------
  1546. Subject: [6.5.5] Odetics {Brief}
  1547. From: Robotics (Autochangers, Jukeboxes, Stackers, Libraries)
  1548.  
  1549. Odetics makes a series of DLT libraries that hold, in the basic
  1550. configuration, 3 DLT drives and 264 cartridges. See
  1551. http://www.odetics.com
  1552.  
  1553. ------------------------------
  1554. Subject: [6.5.6] MediaLogic ADL
  1555. From: Robotics (Autochangers, Jukeboxes, Stackers, Libraries)
  1556.  
  1557. MediaLogic ADL, Inc.
  1558. 1965 57th Court
  1559. Boulder, CO 80301
  1560. Voice: 303-939-9780
  1561. Fax: 303-939-9745
  1562. email: adlinfo@adlinc.com
  1563.  
  1564. They have desktop autochangers up to 26 DLT cartridges. See also
  1565. http://www.csn.net/adlinfo/ on the web. Also have 4mm and 8mm
  1566. autochangers that are similar. I don't know if they manufacturer these
  1567. or OEM them. (rdv, 1996/3/19)
  1568.  
  1569. ------------------------------
  1570. Subject: [6.5.7] ADIC {Brief, New}
  1571. From: Robotics (Autochangers, Jukeboxes, Stackers, Libraries)
  1572.  
  1573. I'm not sure if ADIC manufactures or OEMs their robotics, but they
  1574. apparently sell to end users.  They have 8mm, 4mm and DLT autochangers
  1575. in a variety of small to medium sizes, up to about a terabyte.  See
  1576. http://www.adic.com. (rdv,97/3/18)
  1577.  
  1578. ------------------------------
  1579. Subject: [6.6] D-2
  1580. From: Robotics (Autochangers, Jukeboxes, Stackers, Libraries)
  1581.  
  1582. ------------------------------
  1583. Subject: [6.6.1] Ampex
  1584. From: Robotics (Autochangers, Jukeboxes, Stackers, Libraries)
  1585. Ampex makes their own autochangers for the DST DD-2 tape drive (see
  1586. part 1 of the FAQ).
  1587.  
  1588. DST 410 Automated Cartridge Library:
  1589. Up to 1.2 terabytes capacity (uncompressed) in 7 square feet of floor space.
  1590. All 3 cartridge (cassette) sizes supported - 25, 75, 165 gigabytes
  1591. (uncompressed).
  1592. SCSI Medium Changer Commands or Ethernet NetSCSI protocol.
  1593. Console mounted configuration.
  1594. Single unit price:  $150K.
  1595.  
  1596. DST 810 Automated Cartridge Library:
  1597. Up to 6.4  terabytes (uncompressed) in 21 square feet of floor space.
  1598. Robotic performance of 600 cartridge exchanges per hour.
  1599. Average access time to any file less than 30 sec. (including cartridge
  1600. exchange, drive load and search to data).
  1601. 1 to 4 tape drives per library.
  1602. Ethernet NetSCSI protocol robotics control.
  1603. Starting single unit price:  $300K.
  1604.  
  1605. (pete_zakit@ampex.com, 94/12/23)
  1606.  
  1607. ------------------------------
  1608. Subject: [6.6.2] Odetics
  1609. From: Robotics (Autochangers, Jukeboxes, Stackers, Libraries)
  1610.  
  1611. Odetics makes a thing called a DataTower that holds ~250 S-size D-2
  1612. cartridges. It used to be, but is no longer, sold through EMASS for
  1613. use with the ER-90 (the Ampex/EMASS D-2 drive). It's a small silo that
  1614. sits in front of one rack of drives.
  1615.  
  1616. They also make an expandable library known as the DataLibrary, with a
  1617. maximum capacity of ten petabytes(!) (ten million gigabytes). A robot
  1618. handler runs on a track down an aisle lined with cartridges, and tape
  1619. drives at one (both?) end(s) of the aisle. I think the aisles can vary
  1620. in length, and they can be lined up next to each other and I believe
  1621. cartridges will pass between them.
  1622.  
  1623. (Note: since their acquisition of GRAU (above) EMASS no longer sells
  1624. Odetics. I don't know if these are still available directly from
  1625. Odetics and who you'd get to do the integration work. (rdv, from
  1626. Dave.Barnes@fox.emass.com (Dave Barnes), 1996/3/22))
  1627.  
  1628. ------------------------------
  1629. Subject: [6.7] ID-1
  1630. From: Robotics (Autochangers, Jukeboxes, Stackers, Libraries)
  1631.  
  1632. ------------------------------
  1633. Subject: [6.7.1] Sony DMS, PetaSite {Brief}
  1634. From: Robotics (Autochangers, Jukeboxes, Stackers, Libraries)
  1635.  
  1636. Sony sells three autochangers for their ID-1 line of tape drives,
  1637. based on their broadcast line of autochangers. These are known as the
  1638. DMS Series, models 24, 300M, and 700M. Not surprisingly, they hold,
  1639. respectively, 24 (S,M, or L cassettes), 300 (M only) and 700 (M only)
  1640. cassettes for capacities of 2.3, 13, and 30 terabytes.
  1641.  
  1642. They have also announced something called PetaSite, which they claim
  1643. expands to 3 petabytes and supports both ID-1 and DTF in a single
  1644. system.
  1645.  
  1646. (rdv, 1996/3/22)
  1647.  
  1648. ------------------------------
  1649. Subject: [6.8] Optical Disk (MO,WORM) Libraries
  1650. From: Robotics (Autochangers, Jukeboxes, Stackers, Libraries)
  1651.  
  1652. Several other Japanese manufacturers make optical libraries, I think,
  1653. mostly in support of their own drives. (SHMO)
  1654.  
  1655. ------------------------------
  1656. Subject: [6.8.1] Hitachi 448 GB optical library
  1657. From: Robotics (Autochangers, Jukeboxes, Stackers, Libraries)
  1658. 12-inch worm, up to 7GB per platter, 2-4 drives, additional cartridge 
  1659. expansion unit increases capacity 560 GB to 1,008 GB.
  1660. Drive rates up to 2.22 MB/sec.
  1661. Phone: 800/HITACHI
  1662.  
  1663. ------------------------------
  1664. Subject: [6.8.2] HP MO Autochangers
  1665. From: Robotics (Autochangers, Jukeboxes, Stackers, Libraries)
  1666.  
  1667. Makes several models, from 16 disks and one drive up to 144 disks and
  1668. ?4? drives. These are very popular.
  1669.  
  1670. ------------------------------
  1671. Subject: [6.8.3] Maxoptix MO Autochangers
  1672. From: Robotics (Autochangers, Jukeboxes, Stackers, Libraries)
  1673.  
  1674. Makes several models in the MaxLyb series, the 52, 120 and 180, which
  1675. correspond to the capacity in gigabytes for 1.3 GB drives. They hold,
  1676. respectively, 2 (52), 2 or 4 (120) and 2, 4 or 6 (180) drives.
  1677.  
  1678. They also have a fairly mysterious thing called the Axxis^26, a "high
  1679. speed network file retrieval & backup server," which is obviously an
  1680. MO autochanger, apparently bundled with a license for Palindrome
  1681. Backup Director, suitable for attaching to your Netware file server?
  1682.  
  1683. tel: (408)954-9700, (800)848-3092
  1684. fax: (408)954-9711
  1685.  
  1686. (rdv,95/02/14)
  1687.  
  1688. ------------------------------
  1689. Subject: [6.8.4] MountainGate {Brief}
  1690. From: Robotics (Autochangers, Jukeboxes, Stackers, Libraries)
  1691.  
  1692. Now has the OSS-626, which holds 450-626 disks and 2-24 full-height HP
  1693. drives. Also a new expandable multi-chassis autochanger similar to the
  1694. D-360 DLT autochanger is available.
  1695.  
  1696. See above under VHS for contact info.
  1697.  
  1698. ------------------------------
  1699. Subject: [6.8.5] DISC DocuStore {Brief}
  1700. From: Robotics (Autochangers, Jukeboxes, Stackers, Libraries)
  1701.  
  1702. Makes large libraries (up to ~1,000 5.25" MO catridges, 2.6TB for
  1703. standard MO or 4.6TB for non-standard); see
  1704. http://www.discjuke.com. (Stephen Fister <fister@Synopsys.COM>, 96/8/7)
  1705.  
  1706. ------------------------------
  1707. Subject: [6.8.6] Kodak {Brief}
  1708. From: Robotics (Autochangers, Jukeboxes, Stackers, Libraries)
  1709.  
  1710. Kodak makes their own autochangers for their large (?12"?) optical
  1711. drive.
  1712.  
  1713. ------------------------------
  1714. Subject: [6.8.7] Sony {Brief}
  1715. From: Robotics (Autochangers, Jukeboxes, Stackers, Libraries)
  1716.  
  1717. Sony makes their own jukeboxes for their 12" WORMs and for 5.25" MO.
  1718. http://www.sel.sony.com/SEL/ccpg/storage/scontent.html is the place to
  1719. start.
  1720.  
  1721. ------------------------------
  1722. Subject: [6.9] CD-ROM Jukeboxes
  1723. From: Robotics (Autochangers, Jukeboxes, Stackers, Libraries)
  1724.  
  1725. ------------------------------
  1726. Subject: [6.9.1] Pioneer
  1727. From: Robotics (Autochangers, Jukeboxes, Stackers, Libraries)
  1728.  
  1729. From: mc@msss.com (Mike Caplinger)
  1730. Subject: driver software for Pioneer DRM-5004X CDROM jukebox
  1731. Date: Tue Aug 23 10:09:00 PDT 1994
  1732. Organization: UTexas Mail-to-News Gateway
  1733. Lines: 13
  1734.  
  1735. Pioneer recently announced their DRM-5004X CDROM jukebox, which has
  1736. four quad-speed drives and holds 500 CDs for under $20,000.
  1737.  
  1738.         Mike Caplinger
  1739.         mc@msss.com
  1740.  
  1741. Pioneer also has a 6-disk mini-changer, where SCSI LUNs 0-5 correspond
  1742. to the individual disks; accessing one causes a mount. (Brian A Berg
  1743. <bberg@bswd.com>, 1996/3/29)
  1744.  
  1745. There's also an 18-disk model. You can find info on all three at
  1746. http://www.pgb.pioneer.co.uk (rdv, 96/8/5)
  1747.  
  1748. ------------------------------
  1749. Subject: [6.9.2] CyberTower {Brief, New}
  1750. From: Robotics (Autochangers, Jukeboxes, Stackers, Libraries)
  1751.  
  1752. http://www.cyberdatasys.com has frustratingly little info on a product
  1753. that apparently is 7 CD-ROM drives made to behave like a single SCSI
  1754. target. Not really an autochanger, more of an array. Not sure who the
  1755. manufacturer is; the same unit is available from Procom
  1756. http://www.procom.com. (rdv,96/8/5)
  1757.  
  1758. ------------------------------
  1759. Subject: [6.9.3] NSMJukebox {Brief, New}
  1760. From: Robotics (Autochangers, Jukeboxes, Stackers, Libraries)
  1761.  
  1762. http://www.nsmjukebox.com describes what they call "the universe's
  1763. fastest CD-ROM jukebox". 150 platters (90GB), up to four drives. (rdv,
  1764. 96/8/5)
  1765.  
  1766. ------------------------------
  1767. Subject: [6.9.4] Nakamichi {Brief, New}
  1768. From: Robotics (Autochangers, Jukeboxes, Stackers, Libraries)
  1769.  
  1770. A 4-disk changer built on into an 8x
  1771. reader. http://www.nakamichicdrom.com. (rdv,96/8/5)
  1772.  
  1773. ------------------------------
  1774. Subject: [6.9.5] CDI Juke Box Library {Brief,New}
  1775. From: Robotics (Autochangers, Jukeboxes, Stackers, Libraries)
  1776.  
  1777. A 28-disk changer (standalone network server?) with up to four drives, 
  1778. and a built-in PC w/ 128 MB RAM and a 1GB disk. Available from
  1779. http://www.cdstorage.com. (rdv,96/8/5)
  1780.  
  1781. ------------------------------
  1782. Subject: [6.9.6] K & S M-200 {Brief, New}
  1783. From: Robotics (Autochangers, Jukeboxes, Stackers, Libraries)
  1784.  
  1785. A 200-disk autochanger. Available from
  1786. http://www.cdstorage.com. (rdv,96/8/5)
  1787.  
  1788. ------------------------------
  1789. Subject: [6.9.7] DISC {Brief, New}
  1790. From: Robotics (Autochangers, Jukeboxes, Stackers, Libraries)
  1791.  
  1792. Makes large libraries (up to ~1,500 media slots and up to 32 drives);
  1793. see http://www.discjuke.com. (Stephen Fister <fister@Synopsys.COM>,
  1794. 96/8/7)
  1795.  
  1796. ------------------------------
  1797. Subject: [6.9.8] Meridian {Brief, New}
  1798. From: Robotics (Autochangers, Jukeboxes, Stackers, Libraries)
  1799.  
  1800. CD Net Universal Server from Meridian, http://www.meridian-data.com.
  1801. Not really an autochanger, but an array of CD-ROM drives in a box with 
  1802. an NFS or Netware interface.  (rdv, 97/6/30)
  1803.  
  1804. ------------------------------
  1805. Subject: [7] File Systems
  1806. From: File Systems
  1807.  
  1808. This topic is also discussed frequently in comp.os.research.
  1809. See http://www.maths.tcd.ie/scrg/os-faq.html.
  1810.  
  1811. ------------------------------
  1812. Subject: [7.1] NFS {Brief}
  1813. From: File Systems
  1814.  
  1815. The Network File System, originally developed by Sun Microsystems and
  1816. now pretty standard in the Unix world, and clients exist for PC, Mac,
  1817. VMS, and other non-Unix OSes. V2, the common version, supports single
  1818. files only up to 2^32 (4GB) bytes. I'm not sure if there are any
  1819. limits to a file system size under NFS, other than those imposed by
  1820. the client and server OSes (SHMO).
  1821.  
  1822. NFS is defined in RFC 1094. V3 is now RFC 1813.
  1823.  
  1824. There is at least one newsgroup devoted specifically to NFS:
  1825. comp.protocols.nfs.
  1826.  
  1827. ------------------------------
  1828. Subject: [7.1.1] NFS V3
  1829. From: File Systems
  1830.  
  1831. NFS V3 supports 64-bit files and write caching.
  1832.  
  1833. The first implementation was from Digital with DEC OSF/1 V3.0 for
  1834. Alpha AXP. Silicon Graphics supports it on IRIX 5.3. Cray will support
  1835. it on UNICOS 9. I don't know about other vendors but I have heard
  1836. rumours that the releases coming in the second half of 1995 will
  1837. support it.
  1838.  
  1839. Further information on NFS V3 can be found from
  1840. gatekeeper.dec.com:pub/standards/nfs/NFS3.spec.ps.Z
  1841.  
  1842. (jmaki@csc.fi, 95/1/22)
  1843.  
  1844. Solaris 2.5, available Nov. 95, is reported to have V3 support.
  1845. Network Appliances have it as of 3.0, Sept. 95. (guy@netapp.com (Guy
  1846. Harris), 95/10/6)
  1847.  
  1848. ------------------------------
  1849. Subject: [7.2] AFS {Brief}
  1850. From: File Systems
  1851.  
  1852. The Andrew File System (SHMO). Allows naming of files worldwide as if
  1853. they were a locally-mounted FS (from cooperating clients, of course).
  1854.  
  1855. There's an "alt" group for AFS - "alt.filesystems.afs". Available
  1856. commercially from Transarc.
  1857.  
  1858. ------------------------------
  1859. Subject: [7.3] DFS {Brief}
  1860. From: File Systems
  1861.  
  1862. Another remote file system protocol that supports large files. I don't
  1863. know anything about it, or if any implementations really exist yet.
  1864.  
  1865. ------------------------------
  1866. Subject: [7.4] Log based file systems
  1867. From: File Systems
  1868.  
  1869. Further Information:
  1870.     %z InProceedings
  1871.     %K hpdb:Rosenblum91
  1872.     %s golding@cis.ucsc.edu (Thu Oct 17 11:12:07 1991)
  1873.     %A Mendel Rosenblum
  1874.     %A John K. Ousterhout
  1875.     %y UCBCS.
  1876.     %T The design and implementation of a log-structured file system
  1877.     %C Proc. 13th SOSP.
  1878.     %c Asilomar, Pacific Grove, CA
  1879.     %p ACM. SIGOPS
  1880.     %D 13 Oct. 1991
  1881.     %P 1 15
  1882.     %x This paper presents a new technique for disk storage management
  1883.     %x called a log-structured file system.  A log-structured file system
  1884.     %x writes all modifications to disk sequentially in a log-like
  1885.     %x structure, thereby speeding up both file writing and crash
  1886.     %x recovery.  The log is the only structure on disk; it contains
  1887.     %x indexing information so that files can be read back from the log
  1888.     %x efficiently.  In order to maintain large free areas on disk for
  1889.     %x fast writing, we divide the log into segments and use a segment
  1890.     %x cleaner to compress the live information from heavily fragmented
  1891.     %x segments.  We present a series of simulations that demonstrate the
  1892.     %x efficiency of a simple cleaning policy based on cost and benefit.
  1893.     %x We have implemented a prototype log-structured file system called
  1894.     %x Sprite LFS; it outperforms current Unix file systems by an order of
  1895.     %x magnitude for small-file writes while matching or exceeding Unix
  1896.     %x performance for reads and large writes.  Even when the overhead for
  1897.     %x cleaning is included, Sprite LFS can use 70% of the disk bandwidth
  1898.     %x for writing, whereas Unix file systems typically can use only
  1899.     %x 5--10%.
  1900.  
  1901. (tage@cs.utwente.nl)
  1902.  
  1903. Also, these papers:
  1904.  
  1905. Ousterhout and Douglis, "Beating the I/O Bottleneck: A Case for Log-
  1906. structured File Systems", Operating Systems Review, No. 1, Vol. 23, pp.
  1907. 11-27, 1989, also available as Technical Report UCB/CSD 88/467.
  1908.  
  1909. Rosenblum and Ousterhout, "The Design and Implementation of a Log-
  1910. Structured File System", ACM SIGOPS Operating Systems Review, No. 5, Vol.
  1911. 25, 1991.
  1912.  
  1913. Seltzer, "File System Performance and Transaction Support", PhD Thesis,
  1914. University of California, Berkeley, 1992, also available as Technical
  1915. Report UCB/ERL M92.
  1916.  
  1917. Seltzer, Bostic, McKusick and Staelin, "An Implementation of a Log-
  1918. Structured File System for UNIX", Proc. of the Winter 1993 USENIX Conf.,
  1919. pp. 315-331, 1993.
  1920.  
  1921. listed from the man page for mount_lfs under FreeBSD-2.1.5. (rdv, 97/1/17)
  1922.  
  1923. ------------------------------
  1924. Subject: [7.5] Mainframe File Systems
  1925. From: File Systems
  1926.  
  1927. The WWW FAQ contains some information about mainframe file systems.
  1928.  
  1929. ------------------------------
  1930. Subject: [7.6] Parallel System File Systems
  1931. From: File Systems
  1932.  
  1933. This discussion comes up occassionally on comp.arch and
  1934. comp.os.research. I don't know which newsgroups/mailing lists the PIO
  1935. (Parallel I/O) people hang out in, but it doesn't seem to be here.
  1936. They show up occassionally in comp.sys.super and comp.parallel.  They
  1937. do have their own conferences, though.
  1938.  
  1939. The important work seems to be going on with the supercomputing gang
  1940. -- LLNL, CMU, Caltech, UIUC, Dartmouth, ORNL, SNL, etc. Work is also
  1941. being done by the parallel database community, including vendors such
  1942. as Teradata.
  1943.  
  1944. A paper presented at the ACM International Supercomputing Conference
  1945. in 1993 showed what to me seemed to be pretty appalling performance
  1946. for reading data and distributing it to multiple processors on an
  1947. Intel Delta supercomputer (sorry I don't have the reference in front
  1948. of me). (rdv, 94/8/12) The paper is old, now, and the Intel guys say
  1949. they have improved performance to up to 130 MB/sec. on the new Paragon
  1950. using their Parallel File System (PFS).
  1951.  
  1952. There is an excellent web site on parallel I/O at Dartmouth:
  1953. http://www.cs.dartmouth.edu/pario.html
  1954.  
  1955. There is also a mailing list housed at Dartmouth,
  1956. parallel-io@dartmouth.edu.
  1957.  
  1958. The annual conference is I/O in Parallel and Distributed Systems
  1959. (IOPADS); 1997's is co-located with Supercomputing '97 in San Jose,
  1960. Nov. 17.  Papers are due March 25, 1997.  See
  1961. http://www.cs.dartmouth.edu/iopads.
  1962.  
  1963. ------------------------------
  1964. Subject: [7.7] Microsoft Windows NT {Brief}
  1965. From: File Systems
  1966.  
  1967.  
  1968. I seem to recall that NT supports 64-bit file systems for its own
  1969. native file systems? Anybody know for sure (SHMO)? (rdv, 94/8/24)
  1970.  
  1971. From *Inside the Windows NT(TM) File System*, by Helen Custer:
  1972.  
  1973. "NTFS allocates clusters and uses 64 bits to number them,
  1974. which results in a possible 2^64 clusters, each up to 4KB.  Each
  1975. file can be of virtually infinite size, that is, 2^64 bytes
  1976. long."
  1977.  
  1978. "Clusters" can be between 512 and 4K bytes.
  1979.  
  1980. The Win32 API supports 64-bit file sizes, albeit in a cheesy fashion
  1981. reminiscent of V6 UNIX - no 64-bit integral types used, just pairs of
  1982. 32-bit integral types. (guy@netapp.com (Guy Harris), 95/10/6)
  1983.  
  1984. ------------------------------
  1985. Subject: [7.8] Large Unix File Systems
  1986. From: File Systems
  1987.  
  1988. There is now an industry group working on standardizing an API for
  1989. files larger than 2 GB (the max size normally supported on most Unix
  1990. systems). More info as I get it. The WWW-enabled can have a look at
  1991. http://www.sas.com:80/standards/large.file and see the various
  1992. proposals on the table.
  1993.  
  1994. Note that it is VERY easy to confuse whether an OS supports _files_
  1995. larger than 2 GB or _file systems_ larger than 2 GB. My table lists
  1996. some of both (thanks to ben@rex.uokhsc.edu (Benjamin Z.  Goldsteen),
  1997. Ed Hamrick (EdHamrick@aol.com) and Peter Poorman (poorman@convex.com)
  1998. for much of this information).
  1999.  
  2000.  
  2001. It is straightforward for systems with 64-bit integers to support
  2002. 64-bit files; for systems with 32-bit integers it is more complex. On
  2003. most 32-bit systems the offsets passed around inside the kernel (most
  2004. importantly, at the VFS layer) the file offsets and sizes tend to be
  2005. passed as 32-bit (signed) integers, meaning no files >2^31.
  2006.  
  2007. On most systems, the argument to lseek is of type off_t, which (on
  2008. SunOS and Linux, and plausibly on OSF/1 and others) is declared in a
  2009. header file as "typedef long off_t;".
  2010.  
  2011. For clients to really have access to large files, three pieces are
  2012. required: local FS support, an appropriate network protocol, and
  2013. server support for 64-bit FSes. For FTP access, I believe _literally_
  2014. inifinitely large files are possible, but I'm not sure(SHMO). For NFS
  2015. access, NFS V2 supports only 2GB files. NFS V3, just becoming
  2016. available now, supports full 64-bit files, I believe (anybody have a
  2017. reference to the docs? RFC? SHMO). With the notable exception of
  2018. Unitree (which does not use, depend on, or appear as, a local FS on
  2019. the server), server support for 64-bit files is provided only when the
  2020. server's own local FSes are 64-bit.
  2021.  
  2022. Even for the systems that _do_ support large files, not all are
  2023. programmer or user-transparent for supporting large files. UniCOS is,
  2024. OSF/1 is, ConvexOS is not (there are two system calls, lseek and
  2025. lseek64, with 32-bit and 64-bit file offsets, respectively, though the
  2026. Fortran interface is transparent).
  2027.  
  2028. This brings up the related issues.  A complete large files implementation
  2029. needs not only the system calls, but also the stdio library and the runtime
  2030. libraries for the languages (Fortran, Cobol,...).  Further, system utilities
  2031. (sed, dd, etcetera) need to be capable of dealing with large files.
  2032.  
  2033. (It has been pointed out that the GNU C compiler runs on most of these
  2034. machines, so it is possible to use "long long" as a 64-bit int on
  2035. them, but what matters for file systems is the system compiler.)
  2036.  
  2037. Here's the start of a table on these. Really such a simple table can't
  2038. do the problem justice, but it'll give you an idea. Keep in mind that
  2039. many of these systems support many file system types; I've listed only
  2040. the most interesting so far from this point of view. I'd like to flesh
  2041. it out more completely, though.
  2042.  
  2043.  
  2044. 1 GB = 2^30, 1 TB = 2^40, 1 PB = 2^50, 1 EB = 2^60
  2045. NYR = Not Yet Released
  2046.  
  2047. OS/hardware        64-bit C    max    max    NFS    info
  2048.             datatype    par-    file    V3    updated
  2049.                     tition    size    sup
  2050.                     size    (bytes)
  2051. UniCOS (Cray vector)    int, long    ?    8 EB?    ?    8/94
  2052. ConvexOS        long long    1 TB    1 TB    N    9/94
  2053. Alpha AXP OSF/1 V3.0
  2054.     AFS        long        128 GB    16 TB    8/94    9/94
  2055. Paragon OSF/1        ?        8 EB*    8 EB    N    2/95
  2056. UTS (Amdahl)        ?        ?    8 EB?    ?    8/94
  2057. HP/UX 9 (HP 9xxx)    ?        4 GB    ?    ?    8/94
  2058. Silicon Graphics
  2059.     IRIX 5.2 EFS    long long    8 GB    2 GB    N    9/94
  2060.     IRIX 6.0 EFS    long        8 GB    2 GB    N    9/94 (NYR)
  2061.     IRIX 5.3 XFS    ?long long?    ?    ?TB?    Y    9/94 (NYR)
  2062. AIX (IBM RS/6000)
  2063.     4.1 JFS        long long    64 GB    2 GB    N    8/94
  2064. Solaris 2.x (Sun Sparc)    long long    1 TB    2 GB    (soon?)    9/94
  2065. BSD 4.4            long long    ?    8 EB?    ?    8/94
  2066. Linux            long long    1 TB    2 GB    ?    9/94
  2067. DG/UX 5.4        long long    2 TB    2 GB    ?    9/94
  2068. Alliant Concentrix    long long    ?>2 GB    ?>2 GB    N    9/94 (dead)
  2069.  
  2070. * The Paragon PFS (Parallel File System), as I understand it, parallelizes
  2071. access to the files; each partition striped across is limited to 2GB, so
  2072. really the max partition size is 2GB * # of disks that can be attached.
  2073.  
  2074. A slightly more detailed
  2075. description of certain implementations
  2076. is available with the WWW version.
  2077.  
  2078. In addition, the HPSS (see above) supports large files, as does
  2079. Unitree (though the Unitree interface to them is limited).
  2080.  
  2081. ------------------------------
  2082. Subject: [7.9] Non-Unix Large File Systems
  2083. From: File Systems
  2084.  
  2085. (info about non-Unix large FSes also welcome; SHMO)
  2086.  
  2087. OpenVMS (any version) supports 2TB files (32-bit unsigned block
  2088. number, 9-bit offset) through its RMS interface (still limited to 2GB
  2089. through the C run-time library), but file systems are limited to ~7GB
  2090. (as of Open AXP 1.5 and OpenVMS VAX 6.0 the max volume size has been
  2091. bumped to 1 TB). (from a friend, rdv, 94/8/26, and Rod Widdowson,
  2092. Filesystems group, OpenVMS engineering, Scotland).
  2093.  
  2094. ------------------------------
  2095. Subject: [8] (Device) Interfaces
  2096. From: (Device) Interfaces
  2097.  
  2098. There is a new web site with lots of info at
  2099. http://www.cit.ac.nz/smac/cbt/hwsys/bussys/default.htm (rdv, 96/2/21)
  2100. Looks like it's class notes, so no idea how long it will stay up.
  2101. Don't forget to see http://www.cmpcmm.com/cc/.
  2102.  
  2103. ------------------------------
  2104. Subject: [8.1] SCSI {Full}
  2105. From: (Device) Interfaces
  2106.  
  2107. SCSI is the Small Computer System Interface. It is standardized by
  2108. ANSI X3T9.2. It is mostly aimed at storage devices, with command sets
  2109. defined for disks, tapes, and autochangers, but also includes
  2110. communications devices, printers, and scanners.
  2111.  
  2112. It's daisy-chained, with a maximum of eight devices (including the
  2113. host computer) on a single narrow bus (there are non-standard schemes
  2114. for 16 devices on a wide bus). Any device can be an initiator, so it's
  2115. possible to use the bus for sharing devices between hosts, provided
  2116. your software can manage it.
  2117.  
  2118. See also the newsgroup comp.periphs.scsi, especially for "How do I
  2119. hook up a Brand X diskdrive to my Atavachron 9000 PDA?" type
  2120. questions.
  2121.  
  2122. There is also an FTP site for some working documents for the SCSI-3
  2123. committees and other X3T10 documents. See ftp://ftp.symbios.com or
  2124. ftp.hmpd.com.
  2125.  
  2126. You'll find good info at http://www.symbios.com/x3t10/ and at
  2127. http://www.scsita.com.
  2128.  
  2129. ------------------------------
  2130. Subject: [8.1.1] Single ended vs differential
  2131. From: (Device) Interfaces
  2132.  
  2133. This distinction is at the eletrical signalling level. However,
  2134. single-ended is limited to total bus lengths of 6.0 meters, while
  2135. differential can go up to 25 meters (SCSI-II). Differential is
  2136. generally more robust to noise and cross-talk, but the bus drivers are
  2137. more expensive. In theory no difference in transfer speed or
  2138. capabilities, but in practice the added noise margin could mean higher
  2139. _reliable_ transfer rates on your system, especially if your bus is
  2140. long.
  2141.  
  2142. Most disk drives and most low-end products are available only with a
  2143. single-ended interface. A few devices are available with either as a
  2144. purchase option, and a few are switchable by the user.
  2145.  
  2146. The cables and connectors are the same for both, though the pinouts
  2147. are (naturally) somewhat different.
  2148.  
  2149. Plugging a single-ended device into a running differential bus or
  2150. vice-versa may result in damage to one or more devices. Most newer
  2151. devices have fuses or protection circuits utilitizing the DIFFSENSE
  2152. signal to prevent device damage.
  2153.  
  2154. There are now recommended icons used to distinguish between the two:
  2155.  
  2156.  
  2157. single-ended                    differential
  2158.   /\                             //\
  2159.  /  \                           //  \
  2160. <   --                         <<   --
  2161.  \  /                           \\  /
  2162.   \/                             \\/
  2163.  
  2164. Converters do exist that will allow you to hook up single-ended
  2165. devices to a differential bus and vice-versa. People who have used
  2166. them say they work great, but in theory they shouldn't work :-).  As I
  2167. understand it, changing the signalling introduces delays in some of
  2168. the control signals that means that some devices could miss certain
  2169. signal transitions. The best advice is to borrow one and try it, and
  2170. see if it works in your system. One company's name is Paralan,
  2171. (619)560-7266.
  2172.  
  2173. ------------------------------
  2174. Subject: [8.1.2] Asynchronous vs Synchronous Transfers
  2175. From: (Device) Interfaces
  2176.  
  2177. Asynchronous transfers mean that every single byte must be
  2178. acknowledged before the next can be transfered. Synchronous means that
  2179. the device sending data can drop a series of transfers onto the bus,
  2180. toggling REQ or ACK (as appropriate), and then sit back and wait for
  2181. the corresponding pulses to return from the other device.
  2182.  
  2183. Async transfers, involving much more waiting, are correspondingly
  2184. slower. 2-4 MB/sec are good values for async transfers.
  2185.  
  2186. Sync transfer speeds are established during a negotiation between the
  2187. initiator and target, but devices are not required to use the full
  2188. speed they negotiate for. This speed represents the maximum burst rate
  2189. your device will use. Common values are 5 and 10 MB/sec.
  2190.  
  2191. In practice, virtually every modern device supports synchronous
  2192. transfers, but some implementations are better than others.
  2193.  
  2194. ------------------------------
  2195. Subject: [8.1.3] SCSI-I vs SCSI-II vs SCSI-III
  2196. From: (Device) Interfaces
  2197.  
  2198. SCSI (now commonly known as SCSI-I) was the original 1986 standard,
  2199. X3.131-1986.  It specified the electrical level and some of the
  2200. mid-layer issues involving messages and packet structure, but (I
  2201. believe, my memory's bad) didn't formalize the Common Command Set
  2202. (CCS), that was done independently. It supported a maximum burst rate
  2203. of 5 MB/sec. on an 8-bit bus.
  2204.  
  2205. ADDITIONAL INFORMATION
  2206.  
  2207. Consult the SCSI standards documents, and the manuals for the device you
  2208. are working with for more information.  The "SCSI 1" specification
  2209. document is called SCSI Specification, ANSI X3T9.2/86-109. Also of
  2210. interest is the Common Command Set specification document SCSI CCS
  2211. Specification, ANSI X3T9.2/85-3
  2212.  
  2213. SCSI-II received final approval in early 1994, but has been a de facto
  2214. standard for several years. The CCS was standardized for a variety of
  2215. different types of peripherals. The max allowable transfer rate was
  2216. raised to 10 MT/s (see below). A 16-bit bus (Wide SCSI) and 32-bit bus
  2217. (double-wide SCSI) are specified (see below).
  2218.  
  2219. SCSI-III is the latest effort, and involves more cleanly separating
  2220. the functionality into layers; the command layer is defined
  2221. independently from the physical layer. In addition to the traditional
  2222. parallel cable, there are efforts going on to define physical layers
  2223. for Fibre Channel and a more generic Serial SCSI. Thus, there will be
  2224. no SCSI-IV; only the individual pieces will be updated as necessary.
  2225.  
  2226. ------------------------------
  2227. Subject: [8.1.4] Fast-Wide SCSI
  2228. From: (Device) Interfaces
  2229.  
  2230. The max allowable transfer rate was raised to 10 MT/s (mega-transfers
  2231. per second) in SCSI-2, referred to as Fast SCSI. Note that this is NOT
  2232. required, devices running at ANY speed below that may claim to be
  2233. SCSI-II compliant! Fast implies SCSI-II, not the other way around!
  2234. Fast Narrow is thus 10 MB/sec. Both the initiator (computer) and
  2235. target (peripheral) must support fast transfer for it to be of any
  2236. use, but intermixing fast and slow devices on a bus presents no
  2237. operational problems (only performance ones).
  2238.  
  2239. A 16-bit bus (Wide SCSI) and 32-bit bus (double-wide SCSI) are
  2240. specified in SCSI-2. The wide busses require the use of a second cable
  2241. in SCSI-2. The first cable is 50 pins, known as the A cable; the 2nd
  2242. is 68 pins, known as the B cable. I know of no one actually using
  2243. 32-bit SCSI, but it would also run on an A/B cable pair. Slow (or
  2244. Normal) Wide is thus 5 MT/s * 2 Bytes/T, 10 MB/sec. Fast Wide is 20
  2245. MB/sec. Fast Double Wide would be 40 MB/sec.
  2246.  
  2247. In the SCSI-3 physical layer spec (SCSI-PH), a single 68-pin cable,
  2248. known as the P cable, is allowable for 8 or 16-bit busses. This is the
  2249. option most people who have implemented Wide SCSI have chosen for the
  2250. cabling, even though their upper layer is generally SCSI-2.
  2251.  
  2252. There is a small movement (heard here on the net occassionally) to
  2253. promote an Ultra-SCSI high-speed bus, with a burst rate of something
  2254. like 20 MT/sec on very short cables. At present it is unclear what
  2255. will happen to this effort. There is also talk, in conjunction with a
  2256. change to low-voltage differential signalling, to go to 40MT/sec.
  2257.  
  2258. ------------------------------
  2259. Subject: [8.1.5] Shared Busses / Performance {Brief}
  2260. From: (Device) Interfaces
  2261.  
  2262. Also known as, "It's only a 500KB/sec. tape drive, why do I care if
  2263. the burst rate is only 2 MB/sec.?" or gets good marks for "plays well
  2264. with others".
  2265.  
  2266. Most of this is relevant to all shared busses, not just SCSI.
  2267. burst v. sustained performance, disconnect, command overhead, etc.
  2268.  
  2269. ------------------------------
  2270. Subject: [8.1.6] Cabling/Hot Plugging {Brief}
  2271. From: (Device) Interfaces
  2272.  
  2273. Nominally not supported.
  2274.  
  2275. ------------------------------
  2276. Subject: [8.1.7] Third Party Transfers/Separation of Control & Data Paths {Brief}
  2277. From: (Device) Interfaces
  2278.  
  2279. SCSI-2 has commands that support third-party copying of data; one
  2280. initiator tells device A to copy to device B. I don't know of any
  2281. devices actually using this.
  2282.  
  2283. Separation of control & data paths is a popular topic these days; can
  2284. somebody comment on whether or not SCSI-3 supports this? I don't think
  2285. so. (SHMO)
  2286.  
  2287. ------------------------------
  2288. Subject: [8.2] IDE {Brief}
  2289. From: (Device) Interfaces
  2290.         PC use
  2291.         Does not support overlapped I/O.
  2292.  
  2293. ------------------------------
  2294. Subject: [8.3] IPI {None}
  2295. From: (Device) Interfaces
  2296.  
  2297. ------------------------------
  2298. Subject: [8.4] HIPPI {Brief}
  2299. From: (Device) Interfaces
  2300.  
  2301. 32-bit transfers at 25 MT/sec., 100 MB/sec. High Performance Parallel
  2302. Interface is a unidirectional channel, i.e. you have to have an OUT
  2303. cable and and IN cable for bidirectional transfers (you could have
  2304. just one, if it's a read-only device like a scanner or write-only like
  2305. a frame buffer). HiPPI is not a shared bus, but its frames can be
  2306. switched through a crossbar switch (Network Systems is the premiere
  2307. vendor).
  2308.  
  2309. HiPPI is used for supercomputer-to-supercomputer networking (TCP/IP,
  2310. no less), for RAID arrays (from Maximum Strategy, IBM and others),
  2311. tape drives (Sony ID-1 drive), frame buffers and increasingly
  2312. workstations (SGI and IBM support HiPPI, and 3rd-party Sbus cards
  2313. exist for Sun).
  2314.  
  2315. Due partly to the high overhead of HiPPI connections, many devices
  2316. have elected to separate the control path from the data path. A common
  2317. control path in that case is ethernet.
  2318.  
  2319. Good resources from the HiPPI Networking Forum on the web at
  2320. http://www.esscom.com/hnf/.
  2321.  
  2322. ------------------------------
  2323. Subject: [8.4.1] HIPPI-6400 {Brief}
  2324. From: (Device) Interfaces
  2325.  
  2326. An effort aimed at reaching 6400 Mbps (800 Mbytes/sec.) around the end
  2327. of 1996.
  2328.  
  2329. From rev 0.15 of the HIPPI-6400-PH specification, dated March 4, 1996,
  2330. ftp'ed from ftp.network.com:X3T11/hippi/hippi-6400-ph_0.15.ps.
  2331.  
  2332. Looks like the copper interface will be a cable with 44 micro-coax
  2333. conductors, 22 in each direction. That's 16 data, 4 control, clock,
  2334. and frame. A micro-packet is 32 data bytes and 64 bits of control
  2335. information. I guess this means they're planning on 400 Mbps on each
  2336. data line. The fiber variant uses 12 multimode fibers (in each
  2337. direction, I presume, though it doesn't seem to say that): 8 data + 2
  2338. control + frame + clock, so presumably 800 Mbps on each fiber. Cable
  2339. lengths in both cases TBD.
  2340.  
  2341. ------------------------------
  2342. Subject: [8.5] Ultranet {Brief}
  2343. From: (Device) Interfaces
  2344.  
  2345. Fiber to the host, a hub with a backplane running at a total rate of
  2346. ~1Gbps.
  2347.  
  2348. ------------------------------
  2349. Subject: [8.6] Ethernet {Brief}
  2350. From: (Device) Interfaces
  2351.  
  2352. Generally related to normal inter-host networking, but also used as
  2353. a control path for some HiPPI devices. Ampex also uses NetSCSI over
  2354. ethernet to control their autochangers. Also, obviously, used for
  2355. connecting many servers to their clients. Standard today is 10 Mbps,
  2356. 100 Mbps (fast ethernet) is becoming more common.
  2357.  
  2358. ------------------------------
  2359. Subject: [8.7] FDDI {None}
  2360. From: (Device) Interfaces
  2361.  
  2362. ------------------------------
  2363. Subject: [8.8] Fibre Channel Standard (FCS)
  2364. From: (Device) Interfaces
  2365.  
  2366. Rich Taborek of Amdahl has created an excellent web page on Fibre
  2367. Channel at http://www.amdahl.com/ext/CARP/FCA/FCA.html.
  2368.  
  2369.     ftp.network.com     [Has draft Fibre Channel documents]
  2370.     playground.1.com  [Has FCSI Fibre Channel Profiles]
  2371. (rdv, 95/5/18 from Louis Grantham <Louis.Grantham@dalsemi.com>)
  2372.  
  2373. Fibre Channel runs over coax or optical fibre (single or multimode),
  2374. and even twisted pair.  Fibre Channel comes in two basic forms --
  2375. Aribtrated Loop and switched fabric, which aren't (yet)
  2376. interoperable.  The host interfaces are rapidly becoming cheaper, but
  2377. the switches are still expensive.
  2378.  
  2379. Fibre Channel standards define several functional levels, from the
  2380. physical interface up to the mapping to upper level functionality,
  2381. e.g. how to do SCSI commands over FC.  FC provides several "classes"
  2382. of service, including dedicated circuit and acknowledged and
  2383. unacknowledged datagrams.  Can also be used for IP.  (rdv, 96/10/28)
  2384.  
  2385. ------------------------------
  2386. Subject: [8.9] ESCONN/SBCON {Brief}
  2387. From: (Device) Interfaces
  2388.  
  2389. Enterprise Systems CONNect. IBM's new mainframe attach -- fiber, I
  2390. believe. The standardized version of this is known as SBCON, and Rich
  2391. Taborek has once again created an excellent web page at
  2392. http://www.amdahl.com/ext/CARP/SBCON/SBCON.html.
  2393.  
  2394. ------------------------------
  2395. Subject: [8.10] IEEE P1394 (Serial Bus)
  2396. From: (Device) Interfaces
  2397.  
  2398. Apple's new standard for connecting devices via a high-speed serial
  2399. bus. Good info at http://www.skipstone.com. Also some info FTPable at
  2400. ftp.apple.com (I think that's where I got those papers.) (rdv,
  2401. 95/5/15)
  2402.  
  2403. After having been somewhat dormant for a while, standards activity on
  2404. new versions of 1394 is heating up again.  Faster versions are in the
  2405. works, as is a protocol for doing disks across it. (rdv, 96/10/28)
  2406.  
  2407. ------------------------------
  2408. Subject: [8.11] Serial Storage Architecture (SSA)
  2409. From: (Device) Interfaces
  2410.  
  2411. IBM's new offering in the serial device interface sweepstakes.
  2412. Some docs and tentative working standards available on the SCSI ftp
  2413. site: ftp.symbios.com:pub/standards/io/ssa The SSA Industry
  2414. Association has a web server at http://www.ssaia.org. Disk drives from
  2415. Conner and Micropolis, and Pathlight and Adaptec and expected to do
  2416. host adapters.
  2417.  
  2418. ------------------------------
  2419. Subject: [8.12] S2I: IEEE P1285 Scalable Storage Interface
  2420. From: (Device) Interfaces
  2421.  
  2422. Chaired by Martin Freeman, Philips Research, this is an effort to
  2423. standardize attaching disk drives directly to a system bus, making the
  2424. disk's buffers readable as regular memory to the CPU. Sort of the
  2425. opposite of network-attached storage, this couples the storage device
  2426. design more closely to the hardware and OS of the host system. See
  2427. http://sunrise.scu.edu/P1285Home.html for more info. (rdv, 1995/12/22)
  2428.  
  2429. ------------------------------
  2430. Subject: [8.13] Multibus, Unibus, Mainframe Channels, and other history {None}
  2431. From: (Device) Interfaces
  2432.  
  2433. ------------------------------
  2434. Subject: [9] Other
  2435. From: Other
  2436. ------------------------------
  2437. Subject: [9.1] Video vs Datagrade tapes {brief, 5/94}
  2438. From: Other
  2439.         cost vs reliability
  2440.         Are datagrade really more reliable?
  2441.         Warrantee of drive
  2442.         Cleaning cycle of drive
  2443.         Headlife of drive
  2444.  
  2445.  
  2446. ------------------------------
  2447. Subject: [9.2] Compression
  2448. From: Other
  2449.  
  2450. See the comp.compression FAQ, and don't believe everything a vendor
  2451. tells you. 2x compression is the standard going rate for lossless
  2452. compression of arbitrary data, though some vendors claim 2.5 or 3x.
  2453. Your mileage will vary with your data type.
  2454.  
  2455. Compressing tape drives are common, but for disks and other block
  2456. devices I don't know of anything being done. The unpredictability of
  2457. the compression ratio generally makes it inappropriate for devices
  2458. that need fixed capacities and addresses.
  2459.  
  2460. Online compression of files can be accomplished by hand using
  2461. utilities such as gzip and Unix compress. Some systems support
  2462. software compression of files in the file system software, and will
  2463. transparently compress and decompress files as needed. Stacker for PCs
  2464. is one example; for Unix-like systems this seems to be common research
  2465. for object-oriented file systems (including the GNU Hurd), but I don't
  2466. know of any production versions offhand (SHMO).
  2467.  
  2468. Compression may make your data more vulnerable to errors. A single
  2469. error early in a compressed stream of data can render the entire data
  2470. stream unreadable.
  2471.  
  2472. ------------------------------
  2473. Subject: [10] Benchmarking
  2474. From: Benchmarking
  2475.  
  2476. See the comp.benchmarks FAQ, and don't believe everything a vendor
  2477. tells you.
  2478.  
  2479. There's a good paper on a new I/O benchmarking technique that also
  2480. covers the pitfalls of I/O benchmarking in the Nov. '94 ACM
  2481. Transactions on Computer Systems -- "A New Approach to I/O Performance
  2482. Evaluation -- Self-Scaling I/O Benchmarks, Predicted I/O Performance",
  2483. Peter Chen and David Patterson.
  2484.  
  2485. Bonnie, IOZONE, IOBENCH, nhfsstone, one of the SPECs (SFS), are all
  2486. useful for measuring I/O performance. There is also a program called
  2487. BENCHMARK available from infotech@digex.com -- apparently a
  2488. standardized set of scripts to test remote access to mass storage
  2489. systems.
  2490.  
  2491. In particular, note that based on a discussion here recently (8/96),
  2492. it appears that some magazines (who ought to know better) are using
  2493. HDT BenchTest as a disk drive performance measure, with the I/O sizes
  2494. set so small that the disk drive cache is covering them all, resulting
  2495. in anomalously high data rates (especially write rates).
  2496.  
  2497. http://home.hkstar.com/~tamws/comp/bench/hdbench.htm is the start of a
  2498. reasonable-looking benchmark for PC hard drives (posted by
  2499. tamws@hkstar.com, 9/96)
  2500.  
  2501.  ==== SPEC SFS ====  
  2502.  
  2503. SPEC's System-level File Server (SFS) workload measures NFS server
  2504. performance. It uses one server and two or more "load generator"
  2505. clients.
  2506.  
  2507. SPEC-SFS is not free; it costs US$1,200 from the SPEC corporation.
  2508. There's a FAQ about SPEC posted sometimes in comp.benchmarks.
  2509.  
  2510. ------------------------------
  2511. Subject: [11] Mass Storage Conferences
  2512. From: Mass Storage Conferences
  2513.  
  2514. There are two main academic conferences devoted specifically to mass
  2515. storage (in addition to, of course, the supercomputer and OS
  2516. conferences, and interesting stuff in databases, optical
  2517. conferences, Usenix, SOSP...).
  2518.  
  2519. NASA Goddard Space Flight Center and the IEEE run two conferences, in
  2520. an 18-month or so alternating pattern.
  2521.  
  2522. You'll find my notes on the letest Goddard conference at
  2523. http://www.isi.edu/~rdv/conferences/goddard96.html.
  2524.  
  2525. The contact for the NASA Mass Storage Conference (Sept. 17-19, 1996):
  2526.  
  2527.  
  2528. Jorge Scientific Corporation
  2529. 7500 Greenway Center Drive
  2530. Suite 1130
  2531. Greenbelt, MD USA 20770
  2532. tel(301)220-1701
  2533. fax(301)220-1704
  2534.  
  2535.  
  2536. or if that fails email bkobler@gsfcmail.nasa.gov or
  2537. ben.kobler@gsfc.nasa.gov. There is some info available on the web at
  2538. http://esdis.gsfc.nasa.gov/msst/msst.html.
  2539.  
  2540. Also, the latest IEEE was in September '95:
  2541.  
  2542. * The 14th IEEE Mass Storage Symposium was September 11-14, 1995 at
  2543.   Monterey, CA.  More info from Bernie O'Lear (olear@ncar.ucar.edu) or
  2544.   Sam Coleman (scoleman@llnl.gov).
  2545.  
  2546. Also of interest, there are the conferences on Very Large Database
  2547. Systems. I have a reference somewhere...
  2548.  
  2549. Interesting material shows up in the SPIE conferences.
  2550.  
  2551. ------------------------------
  2552. Subject: [11.0.1] THIC Tape Head Interface Committee {Brief, New}
  2553. From: Mass Storage Conferences
  2554.  
  2555. I would like to bring to your attention the THIC Home Page at the URL
  2556. http://www.thic.org/thic/ and its anonymous ftp archives at the URL
  2557. ftp://ftp.uu.net/vendor/THIC/
  2558.  
  2559. THIC started out in the early 70's as the Tape Head Interface Committee
  2560. under the auspices of the DoD, but has since grown and expanded to embrace
  2561. most data recording technologies.  THIC has been meeting four times a year,
  2562. alternating between the east and west coasts.  The last meeting was in
  2563. Seattle WA on Jan 21 and 22, 1997, and the next will be on April 22 and 23
  2564. at the DoubleTree in Tysons Corner VA.  The papers range from marketing,
  2565. new product announcement and discussion, to the problems of the various
  2566. recording technologies.  Since October 1995, I have been trying to collect
  2567. as many of the papers as I could from each of the meetings and have been
  2568. placing them in Adobe PDF on the THIC archives at ftp.uu.net.  I also
  2569. maintain a no-frills home page where the agenda is displayed, with links to
  2570. papers which are available in the archives. (P.C. Hariharan, 97/2)
  2571.  
  2572. ------------------------------
  2573. Subject: [12] MTBF (Mean Time Between Flareups, er, Failures)
  2574. From: MTBF (Mean Time Between Flareups, er, Failures)
  2575.  
  2576. There is a short FAQ-like document available from IBM at
  2577. http://www.storage.ibm.com/storage/oem/tech/mtbf.htm. No math for the
  2578. statistically inclined, but explains in clear prose what IBM at least
  2579. means when they say MTBF.
  2580.  
  2581. I will also note that, for a complex but reparable system such as an
  2582. autochanger, each subsystem may have a separate MTBF and a different
  2583. lifetime, which may be combined to give one figure for the unit as a
  2584. whole.
  2585.  
  2586. Here is a reasonably understandable, but somewhat long, description of
  2587. MTBF. Thanks to Kevin Daly (president of Odetics, kdaly@odetics.com)
  2588. wrote in 10/95 for this FAQ. After some waffling, I've included the
  2589. whole thing, despite its length.
  2590.  
  2591. ===============================================================
  2592.  
  2593.  
  2594. M T B F
  2595.  
  2596. In order to understand MTBF (Mean Time Between Failures) it is best to
  2597. start with something else -- something for which it is easier to
  2598. develop an intuitive feel.  This other concept is failure rate which
  2599. is, not surprisingly, the average (mean) rate at which things fail.  A
  2600. "thing" could be a component, an assembly, or a whole system.  Some
  2601. things -- rocks, for example -- are accepted to have very low failure
  2602. rates while others -- British sports cars, for example -- are (or
  2603. should be) expected to have relatively high failure rates.
  2604.  
  2605. It is generally accepted among reliability specialists (and you,
  2606. therefore, must not question it) that a thing's failure rate isn't
  2607. constant, but generally goes through three phases over a thing's
  2608. lifetime.  In the first phase the failure rate is relatively high, but
  2609. decreases over time -- this is called the "infant mortality" phase
  2610. (sensitive guys these reliability specialists).  In the second phase
  2611. the failure rate is low and essentially constant -- this is
  2612. (imaginatively) called the "constant failure rate" phase.  In the
  2613. third phase the failure rate begins increasing again, often quite
  2614. rapidly, -- this is called the "wearout" phase.  The reliability
  2615. specialists noticed that when plotted as a function of time the
  2616. failure rate resembled a familiar bathroom appliance -- but they
  2617. called it a "bathtub" curve anyway.  The units of failure rate are
  2618. failures per unit of "thing-time"; e.g. failures per machine-hour or
  2619. failures per system-year.
  2620.  
  2621. What, you may ask, does all this have to do with MTBF?  MTBF is the
  2622. inverse of the failure rate in the constant failure rate phase.
  2623. Nothing more and nothing less.  The units of MTBF are (or, should be)
  2624. units of "thing-time" pre failure; e.g. machine-hours per failure or
  2625. system-years per failure but the "thing" part and the "per failure"
  2626. part are almost always omitted to enhance the mystique and confusion
  2627. and to make MTBF appear to have the units of "time" which it doesn't.
  2628. We will bow to the convention of speaking of MTBF in hours or years --
  2629. but we all know what we really mean.
  2630.  
  2631. What does MTBF have to do with lifetime?  Nothing at all!  It is not
  2632. at all unusual for things to have MTBF's which significantly exceed
  2633. their lifetime as defined by wearout -- in fact, you know many such
  2634. things.  A "thirty-something" American (well within his constant
  2635. failure rate phase) has a failure (death) rate of about 1.1 deaths per
  2636. 1000 person-years and, therefore, has an MTBF of 900 years (of course
  2637. its really 900 person-years per death).  Even the best ones, however,
  2638. wear out long before that.
  2639.  
  2640. This example points out one other important characteristic of MTBF --
  2641. it is an ensemble characteristic which applies to populations (i.e.
  2642. "lots") of things; not a sample characteristic which applies to one
  2643. specific thing.  In the good old days when failure rates were
  2644. relatively high (and, therefore, MTBF relatively low) this
  2645. characteristic of MTBF was a curiosity which created lively (?) debate
  2646. at conventions of reliability specialists (them) but otherwise didn't
  2647. unduly bother right-thinking people (us).  Things, however, have
  2648. changed.  For many systems of interest today the required failure
  2649. rates are so low that the MTBF substantially exceeds the lifetime
  2650. (obviously nature had this right a long time ago).  In these cases
  2651. MTBF's are not only "not necessarily" sample characteristics, but are
  2652. "necessarily not" sample characteristics.  In the terms of the
  2653. reliability cognoscenti, failure processes are not ergodic (i.e. you
  2654. can't blithely trade population statistics for time statistics).  The
  2655. key implication of this essential characteristic of MTBF is that it
  2656. can only be determined from populations and it should only be applied
  2657. to populations.
  2658.  
  2659. MTBF is, therefore an excellent characteristic for determining how
  2660. many spare hard drives are needed to support 1000 PC's, but a poor
  2661. characteristic for guiding you on when you should change your hard
  2662. drive to avoid a crash.
  2663.  
  2664. MTBF's are best determined from large populations.  How large?  From
  2665. every point of view (theoretical, practical, statistical) but cost,
  2666. the answer is "the larger, the better".  There are, however, well
  2667. established techniques for planning and conducting test programs to
  2668. develop specified levels of confidence in a thing's MTBF.
  2669. Establishing an MTBF at the 80% confidence level, for example, is
  2670. clearly better, but much more difficult and expensive, than doing it
  2671. at a 60% confidence level.  As an example, a test designed to
  2672. demonstrate a thing's MTBF at the 80% confidence level, requires a
  2673. total thing-time of 160% of the MTBF if it can be conducted with no
  2674. failures.  You don't want to know how much thing-time is required to
  2675. achieve reasonable confidence levels if any failures occur during the
  2676. test.
  2677.  
  2678. What, by the way, is "thing-time"?  An important subtlety is that
  2679. "thing-time" isn't "clock time" (unless, of course, your thing is a
  2680. clock).  The question of how to compute "thing-time" is a critical one
  2681. in reliability engineering.  For some things (e.g.  living thing) time
  2682. always counts but for others the passage of "thing-time" may be highly
  2683. dependent upon the state of the thing.  Various ad hoc time
  2684. corrections (such as "power on hours" (POH)) have been used, primarily
  2685. in the electronics area.  There is significant evidence that, in the
  2686. mechanical area "thing-time" is much more related to activity rate
  2687. than it is to clock time.  Measures such as "Mean Cycles Between
  2688. Failures (MCBF)" are becoming accepted as more accurate ways to assess
  2689. the "duty cycle effect".  Well-founded, if heuristic, techniques have
  2690. been developed for combining MCBF and MTBF effects for systems in
  2691. which the average activity rate is known.
  2692.  
  2693. MTBF need not, then be "Mysterious Time Between Failures" or
  2694. "Misleading Time Between Failures", but an important system
  2695. characteristic which can help to quantify the suitability of a system
  2696. for a potential application.  While rising demands on system integrity
  2697. may make this characteristic seem "unnatural", remember you live in a
  2698. country of 250 million 9- million-hour MTBF people!
  2699.  
  2700. ===================================================================
  2701. Kevin C. Daly
  2702. President
  2703. ATL Products
  2704. kdaly@odetics.com
  2705. (714) 774-6900
  2706.  
  2707.  
  2708. ------------------------------
  2709. Subject: [13] Mass Storage Reports
  2710. From: Mass Storage Reports
  2711.  
  2712. There are a number of consultants who also write regularly updated
  2713. in-depth reports (and sometimes post here) about various aspects of
  2714. the mass storage market; if you're going to get into this business or
  2715. are planning on spending many thousands or millions of dollars on
  2716. equipment, talking to one of them might be a good idea.
  2717.  
  2718. Sanjay Ranade (infotech@digex.com) is one of the ones who both writes
  2719. and posts here (he also has a couple of reasonably-priced books about
  2720. mass storage). Infotech's reports include HSM, network backup,
  2721. magtape and libraries.
  2722.  
  2723. Others include Disk/Trend (Mountain View, CA, 405-961-6209)
  2724. http://www.disktrend.com (good info there) and Freeman Reports
  2725. (805-963-3853).
  2726.  
  2727. Strategic Research Corporation has numerous white papers and good
  2728. links available at http://www.sresearch.com, including networked
  2729. storage. Some of them seem biased in particular directions, so caveat
  2730. emptor.
  2731.  
  2732. ------------------------------
  2733. Subject: [14] Network-Attached Peripherals {Brief}
  2734. From: Network-Attached Peripherals {Brief}
  2735.  
  2736. Coming soon. My own research is in this area; if you're lucky you
  2737. might find some pointers by going through my home page
  2738. http://http://alumni.caltech.edu/~rdv/. Contributions welcome.
  2739.  
  2740. Look for "A Brief Survey of Current Work on Network-Attached
  2741. Peripherals" in the January '96 ACM Operating Systems Review, by yours
  2742. truly. An expanded, updated version is available on the web at
  2743. http://www.isi.edu/~rdv/netstation/nap-research/. (rdv, 96/1/22)
  2744.  
  2745. http://www.cs.cmu.edu/Web/Groups/PDL/ is Garth Gibson's Parallel Data
  2746. Lab, where they're doing excellent work on network-attached storage
  2747. devices.
  2748.  
  2749. At Lawrence Livermore, they're doing a network-attached RAID array to
  2750. integrate into HPSS; see
  2751. http://www.llnl.gov/liv_comp/siof/siof-nap.html.
  2752.  
  2753. The ViewStation work at MIT,
  2754. http://tns-www.lcs.mit.edu/tns-www-home.html is concentrating on
  2755. ATM-attached peripherals, using ATM as a system-area network.
  2756.  
  2757. The Netstation project http://www.isi.edu/netstation/ (which I work on
  2758. at ISI) is focusing on IP-connectible peripherals, using a gigabit
  2759. network as the system backplane.
  2760.  
  2761. ------------------------------
  2762. Subject: [15] Other References
  2763. From: Other References
  2764.  
  2765. ------------------------------
  2766. Subject: [15.1] Print
  2767. From: Other References
  2768.  
  2769.  
  2770.         Computer Technology Review magazine, 310/208-1335, free to some.
  2771.         Electronic News, weekly, 800/722-2346.
  2772.         MacWeek, June 7, 1993, Page 36+
  2773.     IEEE Computer had a full issue in March 94 on I/O subsystems
  2774.  
  2775. There are also two books by Sanjay Ranade (infotech@digex.com), who
  2776. posts here occassionally. One is _Mass Storage Technologies_
  2777. (1991ish?), the other, newer one is _Mass Storage Systems_. I've read
  2778. the first one, it's a little short on detail but a good overview.
  2779.  
  2780. ------------------------------
  2781. Subject: [15.2] Web
  2782. From: Other References
  2783.  
  2784. http://www.cmpcmm.com/cc/ standards and tons of info.
  2785.  
  2786. http://www.nml.org performance reports, media surveys, etc. Goes into a
  2787. lot of detail on topics such as archival stability.
  2788.  
  2789. http://www.yahoo.com/Business/Corporations/Computers/Peripherals/Storage/
  2790. lists some resellers and manufacturers of storage.
  2791.  
  2792. http://theref.c3d.rl.af.mil has good information about PC hardware,
  2793. including old interfaces, floppies, controllers, etc. It has a LONG
  2794. list of specs for hard drives.
  2795.  
  2796. http://www.cs.yorku.ca/People/frank/Welcome.html also has good info on
  2797. hard drives and CD-ROM drives.
  2798.  
  2799. http://www.sresearch.com/search/105008.htm lists storage products and
  2800. market projections.
  2801.  
  2802. ------------------------------
  2803. Subject: [15.3] Newsgroups
  2804. From: Other References
  2805.  
  2806. You're in the primary one (comp.arch.storage).  You'll also find info
  2807. in the groups on SCSI, PC hardware, and specific operating systems.
  2808. I'll try to add pointers to their FAQs soon.
  2809.  
  2810. The FAQ for comp.sys.ibm.pc.hardware.storage can be found at
  2811. http://thef-nym.sci.kun.nl/~pieterh/storage.html.
  2812.  
  2813. ------------------------------
  2814. Subject: [15.4] Research Papers
  2815. From: Other References
  2816.  
  2817. I'm collecting reviews and a list of papers now, I expect to add it in
  2818. a few weeks. Contributions/suggestions welcome.
  2819.  
  2820. ------------------------------
  2821. Subject: [16] ORIGINAL CALL FOR VOTES
  2822. From: ORIGINAL CALL FOR VOTES
  2823.  
  2824. NAME: 
  2825.           comp.arch.storage
  2826.  
  2827. STATUS:
  2828.           unmoderated
  2829.  
  2830.  
  2831. DESCRIPTION:
  2832.  
  2833.         storage system issues, both software and hardware
  2834.  
  2835.  
  2836. CHARTER:
  2837.  
  2838. To facilitate and encourage communication among people interested in computer 
  2839. storage systems.  The scope of the discussions would include issues relevant 
  2840. to all types of computer storage systems, both hardware and software.  The 
  2841. general emphasis here is on open storage systems as opposed to platform 
  2842. specific products or proprietary hardware from a particular vendor.  Such 
  2843. vendor specific discussions might belong in comp.sys.xxx or comp.periphs.  
  2844. Many of these questions are at the research, architectural, and design levels 
  2845. today, but as more general storage system products enter the market, 
  2846. discussions may expand into "how to use" type questions.
  2847.  
  2848.  
  2849. RATIONALE:
  2850.  
  2851. As processors become faster and faster, a major bottleneck in computing 
  2852. becomes access to storage services:  the hardware - disk, tape, optical, 
  2853. solid-state disk, robots, etc., and the software - uniform and convenient 
  2854. access to storage hardware.  A far too true comment is that "A supercomputer 
  2855. is a machine that converts a compute-bound problem into an I/O-bound 
  2856. problem."  As supercomputer performance reaches desktops, we all experience 
  2857. the problems of:
  2858.  
  2859. o       hot processor chips strapped onto anemic I/O
  2860.                 architectures
  2861. o       incompatable storage systems that require expensive
  2862.                 systems integration gurus to integrate and
  2863.                 maintain
  2864. o       databases that are intimately bound into the quirks of an
  2865.                 operating system for performance
  2866. o       applications that are unable to obtain guarantees on when
  2867.                 their data and/or metadata is on stable storage
  2868. o       cheap tape libraries and robots that are under-utilized
  2869.                 because software for migration and caching to
  2870.                 disk is not readily available
  2871. o       nightmares in writing portable applications that attempt
  2872.                 to access tape volumes
  2873.  
  2874. This group will be a forum for discussions on storage topics including the 
  2875. following:
  2876.  
  2877. >1.     commercial products - OSF Distributed File System (DFS)
  2878.         based on Andrew, Epoch Infinite Storage Manager and
  2879.         Renaissance, Auspex NS5000 NFS server, Legato
  2880.         PrestoServer, AT&T Veritas, OSF Logical Volume Manager,
  2881.         DISCOS UniTree, etc.
  2882. >2.     storage strategies from major vendors - IBM System
  2883.         Managed Storage, HP Distributed Information Storage
  2884.         Architecture and StoragePlus, DEC Digital Storage
  2885.         Architecture (DSA), Distributed Heterogeneous Storage
  2886.         Management (DHSM), Hierarchical Storage Controllers, and
  2887.         Mass Storage Control Protocol (MSCP)
  2888. >3.     IEEE 1244 Storage Systems Standards Working Group
  2889. >4.     ANSI X3B11.1 and Rock Ridge WORM file system standards
  2890.         groups
  2891. >5.     emerging standard high-speed (100 MB/sec and up)
  2892.         interconnects to storage systems: HIPPI, Fiber Channel
  2893.         Standard, etc.
  2894. >6.     POSIX supercomputing and batch committees' work on
  2895.         storage volumes and tape mounts
  2896. >7.     magnetic tape semantics ("Unix tape support is an
  2897.         oxymoron.")
  2898. >8.     physical volume management - volume naming, mount
  2899.         semantics, enterprise-wide tracking of cartridges, etc.
  2900. >9.     models for tape robots and optical jukeboxes - SCSI-2,
  2901.         etc.
  2902. >10.    designs for direct network-attached storage (storage as
  2903.         black box)
  2904. >11.    backup and archiving strategies
  2905. >12.    raw storage services (i.e., raw byte strings) vs.
  2906.         management of
  2907.         structured data types (e.g. directories, database
  2908.         records,...)
  2909. >13.    storage services for efficient database support
  2910. >14.    storage server interfaces, e.g., OSF/1 Logical Volume
  2911.         Manager
  2912. >15.    object server and browser technology, e.g. Berkeley's
  2913.         Sequoia 2000
  2914. >16.    separation of control and data paths for high performance
  2915.         by removing the control processor from the data path;
  2916.         this eliminates the requirements for expensive I/O
  2917.         capable (i.e., mainframe) control processors
  2918. >17.    operating system-independent file system design
  2919. >18.    SCSI-3 proposal for a flat file system built into the
  2920.         disk drive
  2921. >19.    client applications which bypass/ignore file systems:
  2922.         virtual memory, databases, mail, hypertext, etc.
  2923. >20.    layered access to storage services - How low level do we
  2924.         want device control?  How to support sophisticated, high
  2925.         performance applications that need to bypass the file
  2926.         abstraction?
  2927. >21.    migration and caching of storage objects in a distributed
  2928.         hierarchy of media types
  2929. >22.    management of replicated storage objects
  2930.         (differences/similarities to migration?)
  2931. >23.    optimization of placement of storage objects vs. location
  2932.         transparency and independence
  2933. >24.    granularity of replication - file system, file, segment,
  2934.         record, etc.,
  2935. >25.    storage systems management - What information does an
  2936.         administrator need to manage a large, distributed storage
  2937.         system?
  2938. >26.    security issues - Who do you trust when your storage is
  2939.         directly networked?
  2940. >27.    RAID array architectures, including RADD (Redundant
  2941.         Arrays of Distributed Disks) and Berkeley RAID-II HIPPI
  2942.         systems
  2943. >28.    architectures and problems for tape arrays - striped tape
  2944.         systems
  2945. >29.    stable storage algorithm of Lampson and Sturgis for
  2946.         critical metadata
  2947. >30.    How can cheap MIPS and RAM help storage? -  HP DataMesh,
  2948.         write-only disk caches, non-volatile caches, etc.
  2949. >31.    support for multi-media or integrated digital continuous
  2950.         media (audio, video, other realtime data streams)
  2951.  
  2952. This group will serve as a forum for the discussion of issues which do not 
  2953. easily fit into the more tightly focused discussions in various existing 
  2954. newsgroups.  The issues are much broader than Unix (comp.1.*, comp.os.*), 
  2955. as they transcend operating systems in general.  Distributed computer systems 
  2956. of the future will offer standard network storage services; what operating 
  2957. system(s) they use (if any) will be irrelevant to their clients.  The 
  2958. peripheral groups (comp.periphs, comp.periphs.scsi) are too hardware oriented 
  2959. for these topics.  Several of these topics involve active standards groups 
  2960. but several storage system issues are research topics in distributed systems.  
  2961. In general, the standards newsgroups (comp.std.xxx) are too narrowly focused 
  2962. for these discussions.
  2963.  
  2964.  
  2965. --------------------------------------------------------
  2966. ------------------------------
  2967. Subject: [17] Original Author's Disclaimer and Affiliation:
  2968. From: Original Author's Disclaimer and Affiliation:
  2969.  
  2970. This information is believed to be reasonably accurate although I do 
  2971. not verify every submission.  Neither the United Stages Government nor any 
  2972. agency thereof, nor any of their employees, makes any warranty, express or 
  2973. implied, or assumes any legal liability or responsibility for the accuracy, 
  2974. completeness, or usefullness of any informatin, apparatus, product, or 
  2975. process disclosed, or represents that its use would not infringe privately 
  2976. owned rights.  Reference herein to any specific commercial product, process, 
  2977. or service by trade name, trademark, manufacturer, or otherwise, does not 
  2978. necessarily constitute or imply its endorsement, recommendatin, or favoring 
  2979. by the United States Government or any agency thereof.  The views and 
  2980. opinions of authors expressed herein do not necessarily state or reflect 
  2981. those of the United States Government or any agency thereof.
  2982.  
  2983.  
  2984. ---
  2985. Joseph Stith, stith@fnal.gov, 708/840-3846
  2986. Assistant to the Computing Division Head -- IRM Planning
  2987. Computing Division, Fermilab, PO Box 500, MS 120, Batavia, IL 60510
  2988.  
  2989.  
  2990. ------------------------------
  2991. Subject: [18] Copyright Notice
  2992. From: Copyright Notice
  2993.  
  2994. This compilation of material is copyright Rod Van Meter,
  2995. rdv@alumni.caltech.edu. Permission is granted to copy this material,
  2996. provided this copyright notice is retained. The contents are not to be
  2997. significantly modified without the express written consent of the
  2998. author.
  2999.  
  3000. This is just to keep the various authors of this material from being
  3001. substantially misquoted or abused, not to restrict use of the
  3002. information.
  3003.  
  3004. Permission to include this FAQ in published compilations (CD-ROM or
  3005. book) will be granted upon direct request.
  3006.  
  3007. ------------------------------
  3008. Subject: [19] Additional Topics to be added
  3009. From: Additional Topics to be added
  3010.  
  3011. File Systems: Unix, IBM, VMS, Tops-20, Extent-based, Amiga, Mac
  3012. (resource & data forks)
  3013. FTP Sites
  3014. Volume Sets & Partitions
  3015. Important People/Mass Storage History
  3016. Books & Other Publications
  3017. Principles for Evaluating New Technologies
  3018. Performance Evaluation
  3019.   cacheing
  3020.   seek time measurement
  3021.   concurrent operations
  3022.   queueing theory
  3023. Head Lifetime
  3024. Versioning in File Systems
  3025. Managing Risk
  3026. Media Migration/Managing Change
  3027. Physical v. Logical Addressing (seek optimizations, etc.)
  3028. Channels v. Busses
  3029. Intelligent Storage Subsystems
  3030. DEC's HSC-50 and star cluster for VAXen
  3031. Mainframe & Supercomputer I/O controllers
  3032. Security
  3033. The broadcast and home audio/video / mass storage connection
  3034. Databases and Mass Storage
  3035. File System Research: watchdogs, named pipes, compressing FSes
  3036. The naming problem: Prospero
  3037. Distributed Locking & Update
  3038. Content-Addressable Storage & Other Unusual Ideas
  3039. The old film-storage system Sam Coleman talks about
  3040. Byte Ordering
  3041. Supercomputer Storage
  3042. Companies: Adstor, Avastor
  3043. I/O Benchmarks
  3044. User file systems
  3045. System CPU & bus loads for file system work
  3046. Memory-Mapped Files
  3047. Persistent Object Systems & their files
  3048. The VFS layer in Unix
  3049. What to look for in a backup product
  3050. Offsite Storage v. Network Backup
  3051. Test Equipment -- SCSI & HiPPI Analyzers
  3052. (reorganize along small user/large user/developer lines?)
  3053. (need to date every entry if possible)
  3054. terminology
  3055.