home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1993 #3 / NN_1993_3.iso / spool / comp / graphics / avs / 1081 < prev    next >
Encoding:
Text File  |  1993-01-25  |  8.8 KB  |  223 lines

  1. Newsgroups: comp.graphics.avs
  2. Path: sparky!uunet!paladin.american.edu!howland.reston.ans.net!usc!sol.ctr.columbia.edu!aurora!larryg
  3. From: larryg@avs.com (Larry Gelberg)
  4. Subject: Big Dataset Survey Results
  5. Sender: nobody@ctr.columbia.edu
  6. Organization: Advanced Visual Systems Inc.
  7. Date: Mon, 25 Jan 1993 19:12:36 GMT
  8. X-Newsreader: Tin 1.1 PL4
  9. Message-ID: <1993Jan25.191236.19800@sol.ctr.columbia.edu>
  10. X-Posted-From: aurora.avs.com
  11. NNTP-Posting-Host: sol.ctr.columbia.edu
  12. Lines: 209
  13.  
  14. Here are the results of the Big Dataset Survey I queried the network
  15. about several weeks ago.  You may remember that I asked the question
  16. "What is the biggest dataset YOU have ever pushed through AVS?" The
  17. numbers are interesting for several reasons: the sizes of the datasets
  18. presented, and the variety of techniques for which AVS is being used.
  19.  
  20. Here is a summary table followed by the brief descriptions everyone
  21. sent me.  Please continue to send me this information - I will
  22. continue to compile it and present the results at the User's
  23. Group Meeting in May! 
  24.  
  25. Fields:
  26.     67,108,864 Bytes - Marc Kessler, U of Mich. Hospital
  27.              - (Anonymous)
  28.     60,000,000 Bytes - Ronald J.G. Goossens, Stanford University
  29.     51,800,000 Bytes - Wade K. Smith, Convex Computer Corporation
  30.     24,576,000 Bytes - Jamie Pelagatti, Harvard Medical School
  31.     20,961,952 Bytes - Ron Karwoski, BIR, Mayo Foundation
  32.     12,582,912 Bytes - Larry Gelberg, Advanced Visual Systems Inc.
  33.      8,388,608 Bytes - Pierre MARTEL, C N E T PAA/TIM/SSI          
  34.      3,000,000 Bytes - Rob Lake, BP Research
  35.        120,000 Bytes - Andrew Rhodes, MIT
  36.  
  37. UCD: 
  38.        262,144 cells - Alexander Yarmarkovich, Advanced Visual Systems Inc.
  39.        100,000 cells - Peter Yerburgh, Intera
  40.         16,405 cells - John Sheehan, Advanced Visual Systems Inc.
  41.  
  42. ----------------------------------------------------------------------
  43.  
  44. 67,108,864 Bytes
  45.     256x256x128 doubles - 3D convolutions
  46.     Stellar GS with 128M
  47.     Marc Kessler, University of Michigan Hospital
  48.  
  49. ----------------------------------------------------------------------
  50.  
  51. 67,108,864 Bytes 
  52.  
  53.     I've done volume rendering of a 512x256x128 uniform integer volume 
  54.     on a XXXXX with XXXXX, and my volume renderer runs 
  55.     in about XXXXX seconds.  At this point the results are too
  56.     preliminary to be publishable (since I just wrote the renderer).
  57.     But I'll let you know when the results are publishable 
  58.     (probably about the time we release the module).
  59.  
  60.     XXXXX, XXXXX (wishes to remain anonymous until results are
  61.     officially published)
  62. ----------------------------------------------------------------------
  63. 60,000,000 Bytes
  64.  
  65. We have a 3D semiconductor simulation code that models the electrical
  66. behavior of submicron transistors. It solves the Poisson equation and
  67. two transport equations. The output consists of electrical potential,
  68. electron and hole concentration, electron and hole current density at
  69. each node in the computational mesh, i.e. 9 double-precision
  70. floats/grid point. The code is called STRIDE and uses rectangular
  71. blocks as mesh elements.
  72.  
  73. We are involved in a number of high-performance computing efforts and
  74. have been running STRIDE on an in-house Intel hypercube. Early 1992 we
  75. got access to the Intel DELTA machine at Caltech in Pasadena, CA.
  76. There, we were able to analyse a full series of electrical biases (13
  77. different solutions) on a grid of 5 million points (approximately
  78. 150x150x210). Any scalar solution variable represented 20Mb per bias
  79. point, vector variables are 60Mb per bias point. The total solution
  80. file contained 13x9x4x5M bytes = 2.34 Gbyte.
  81.  
  82. These data were transferred to the National Center for Computational
  83. Electronics at the University of Illinois. The most interesting visual
  84. corresponded to a 3D streamline rendition of hole current for one of
  85. the bias points, with a color contour map of the magnitude of hole
  86. current for the central plane. That data set in itself contained 60
  87. Mbyte of data.
  88.  
  89. I think - but am not sure - that the visualization was done on a
  90. Convex machine with 2Gbyte of main memory. It is one of Convex's
  91. high-end versions. The streamline visualization took about 16 hours of
  92. CPU time. The visualization was done "distributed" in the sense that
  93. we had hooked up to display windows to the geometry viewer, one
  94. locally at Illinois, the other at Stanford.
  95.  
  96. The simulation and visualization received an honorable mention in the
  97. Intel Grand Challenge Award, which was organized last year to
  98. commemorate the first anniversary of the DELTA machine.
  99.  
  100. Ronald J.G. Goossens            
  101. Integrated Circuits Lab, Stanford University
  102.  
  103. ----------------------------------------------------------------------
  104.  
  105. 51,800,000 Bytes
  106.     UCI cell data set (courtesy of D.B. Menzel, et. al.)
  107.     360x360x100 float field (51.8Mb) converted to byte (12.9Mb)
  108.     Convex C220 (2 heads)
  109.     512Mb physical memory
  110.     gradient shade 144 seconds
  111.     tracer 14 seconds
  112.     isosurface plus render (grew to 800Mb) 30 minutes
  113.     work done by Duane Gustavus at Convex
  114.  
  115.     Wade K. Smith, Convex Computer Corporation
  116.  
  117. ----------------------------------------------------------------------
  118.  
  119. 24,576,000 Bytes
  120.     We have sent 320x320x60 integer (i.e 4 byte) data sets through
  121.     AVS networks. These are CT data sets typically. We've used a
  122.     Stardent GS2000 with 128 Mb of memory.     Usually, we read it
  123.     then slice it or byte-reduce it before rendering it.  Just
  124.     reading it into a field did not take more than a few minutes.
  125.     It will also flow through the pipes with a couple of minutes too.
  126.  
  127.     Jamie Pelagatti, Harvard Medical School
  128.  
  129. ----------------------------------------------------------------------
  130.  
  131. 20,961,952 Bytes
  132.     I have loaded a 20 Mb file, 226 x 272 x 341, (byte field) on a
  133.     HP 9000/720 with 64 Mb of memory. The data is a CT scan of the 
  134.     head which we interpolated to make cubic. After the initial
  135.     reading in of the data I am able to render and display the
  136.     data in ~5 seconds. Render types include: Voxel Gradient
  137.     Shading, Maximum Intensity Projections, and Summed
  138.     Projections. Threshold values and three rotation angles (x, y,
  139.     z) can be set by the user. 
  140.  
  141.     Read ANALYZE->ANALYZE Render->Colorizer->Display Image
  142.  
  143.     Read ANALYZE and ANALYZE Render are our own AVS Modules which
  144.     have limited ANALYZE functionality. 
  145.  
  146.     I'm sure we can go larger, I don't have any larger datasets handy
  147.     to find the limit.
  148.  
  149.  
  150.     Ron Karwoski                   Internet:   rak@bru.mayo.edu
  151.     Biomedical Imaging Resource, Mayo Foundation
  152. ----------------------------------------------------------------------
  153.  
  154. 12,582,912 Bytes
  155.     256 x 256 x 192 byte volume
  156.     Volume Rendering using TRACER and COMP SHADE
  157.     Stellar GS 2000 w/ 128 MBytes 
  158.     
  159.     Larry Gelberg, Advanced Visual Systems
  160. ----------------------------------------------------------------------
  161.  
  162. 8,388,608 Bytes
  163.     It takes near 3 minutes for a 3D float field with color 524288
  164.     particules with a "scatter dot" module.
  165.  
  166. 524,288 Bytes
  167.     It takes near 2 secondes for a 2D float field 128x1024 throught
  168.     the "field to mesh" module.
  169.  
  170. 500,000 Bytes
  171.     It takes near 5 secondes for a 3D float field 50x50x50 with an
  172.     "isosurface" module.
  173.  
  174.     and, of course, all these modules are connected out a "render geometry".
  175.     I'm using AVS on a Stardent 800 with 32 Mbytes of memory.
  176.  
  177.     Pierre MARTEL,     C N E T   PAA/TIM/SSI          
  178.  
  179. ----------------------------------------------------------------------
  180.  
  181. 3,000,000 Bytes  (1000 * 250 * 4 (sizeof float) * 3 ([XYZ]))
  182.      Field 2-D, some 3-D  Fields up to 1000 by 250 or so.  Now using
  183.         3-D topo map about 175 by 150, rendered with 608 by 865 image.
  184.     KPC Titan 3000VS dualprocessor - 128MB
  185.     At 60,000 to 100,000 triangles in the generated geometry, rotation
  186.     and scaling are at the limit of usability.  3-D topo map quite
  187.     usable interactively. 
  188.  
  189.     Rob Lake, BP Research
  190.  
  191. ----------------------------------------------------------------------
  192.  
  193. 120,000 bytes (10000 * 4 (sizeof float) * 3 ([XYZ])
  194.     We were displaying surfaces (as geometries) comprised of 10,000 points
  195.     at a pretty good speed.  For reasons I won't get into, we actually created
  196.     text files N x 10000 lines long with N surfaces in them.  The module that
  197.     reads the files used a direct positioning which worked nearly instantly.
  198.     We did find that jumping up to 15,000 points crossed a threshold and led
  199.     to big slowdowns -- likely we ran out of memory and it had to swap.
  200.  
  201.     Our system is a DECstation 5000/200 with Ultrix 4.2, DECwindows, and AVS 4.0.
  202.     The system has 40 Meg RAM, 160 Meg swap space. 
  203.  
  204.     Andrew Rhodes, MIT
  205.  
  206. ----------------------------------------------------------------------
  207.  
  208. UCD:
  209.  
  210. 262,144 cells   Alexander Yarmarkovich, Advanced Visual Systems Inc.
  211.         (hydrogen.dat converted to cells for testing purposes)
  212. 100,000 cells    Peter Yerburgh, Intera
  213.  16,405 cells   John Sheehan, Advanced Visual Systems Inc.
  214.  
  215. ----------------------------------------------------------------------
  216.  
  217.  
  218. --
  219. === Larry Gelberg ============================ larryg@avs.com =======
  220.       Advanced Visual Systems Inc. (AVS Inc.)
  221.       300 Fifth Ave, Waltham, MA 02154
  222. ===== Tel: 617-890-4300 = Fax: 617-890-8287 =========================
  223.