home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #26 / NN_1992_26.iso / spool / sci / virtual / 3612 < prev    next >
Encoding:
Internet Message Format  |  1992-11-09  |  7.9 KB

  1. Path: sparky!uunet!usc!hela.iti.org!cs.widener.edu!eff!sol.ctr.columbia.edu!caen!uwm.edu!ogicse!news.u.washington.edu!stein.u.washington.edu!hlab
  2. From: jpc@tauon.ph.unimelb.edu.au (John Costella)
  3. Newsgroups: sci.virtual-worlds
  4. Subject: Re: PAPER: Galilean Antialiasing for VR, Part 01/04
  5. Message-ID: <1992Nov9.215722.10521@u.washington.edu>
  6. Date: 7 Nov 92 23:49:59 GMT
  7. Article-I.D.: u.1992Nov9.215722.10521
  8. Sender: news@u.washington.edu (USENET News System)
  9. Organization: University of Washington
  10. Lines: 144
  11. Approved: cyberoid@milton.u.washington.edu
  12. Originator: hlab@stein.u.washington.edu
  13.  
  14.  
  15. Gday viewers,
  16.  
  17. I'd like to thank Michael Deering for his thoughtful and prompt review of
  18. my posting. I agree with many of his points; disagree with some; but respect
  19. his opinion in each case. 
  20.  
  21. I am not too worried about defending every point he raises; better to keep
  22. quiet and be thought a fool than open your mouth and prove it <grin>. But
  23. I think that Michael's review deserves a few explanatory comments, rather
  24. than complete silence, on my part. Of course, I would rather have any
  25. interested sci.v-w readers actually read [parts of] the paper than my 
  26. meagre defence of it!  
  27.  
  28. So with those caveats, and a stiff upper lip, here goes ...
  29.  
  30.  
  31. >                               SUMMARY
  32. > The (92 page) paper describes several ideas.  Starting with our basic
  33. > assumptions about visual perception, alternate frame buffer display
  34. > technologies for 3D rendered images are derived, similar to motion estimation
  35. > algorithm based systems for image decompression (e.g. MPEG 2) (which the
  36. > author doesn't seem to be aware of).  After postulating some hardware
  37.  
  38. MPEG 2: Yes and no. As I point out, motion estimation isn't my idea: it
  39.         goes back to Galileo, and of course it is used in many different
  40.         ways, in different situations. What I aimed to do was to outline 
  41.         precisely how one would implement motion estimation in a VR 
  42.         situation, TODAY. I do not believe that motion estimation is used 
  43.         as widely as it could be, in the realm of virtual world 
  44.         applications. If my pitiful attempt makes people think about 
  45.         doing it *now* (as they can), then it will have served its purpose.
  46.  
  47. > The central idea is that one can save money by not always re-rendering
  48. > from scratch 3D Z-buffered images every frame, but by augmenting the
  49. > frame buffer with local motion vectors, a smart frame buffer can in-between
  50. > several sub-frames before the whole rendering system deliveres a complete
  51. > new frame.  (A variation of this approach is indeed used by pixar and
  52. > others for their motion blurring algorithms, with limitations.)
  53.  
  54. I am *not* talking about motion blur. That is a further topic that I 
  55. realise has been treated well elsewhere. 
  56.  
  57. I would not be too surprised if the whole paper is a repeat of older work;
  58. just about everything has been thought of by someone somewhere sometime.
  59. However, I have been unable to find such information; I have practically 
  60. exhausted the limited amount of literature available in this country in
  61. this field. The fact is that the approach I suggest is *not* being 
  62. employed widely, if at all, as of this time. And it is not difficult to do.
  63.  
  64. > As a designer of digital circuits for rendering, I have a fairly good feel
  65. > for how much circuitry would be required to implement this sort of algorithm.
  66. > The problem is that it appears that it would cost *more* to support the smart
  67. > pixels that the current brute force rendering circuitry takes!  (In the
  68. > authors defence the relative amounts of circuits needed are not obvious.)
  69.  
  70. I think I might not have made the cost-benefit case clear; my apologies.
  71. It is definitely somewhat more costly (in $$$) to implement the ideas I 
  72. propose than to not implement them at all! However, once you have done 
  73. that, you can achieve (say) 50 or 100 Hz effective update rate, while 
  74. only rendering images at 5 or 10 Hz (or lower, if you go to section 4 
  75. types of methods).
  76.  
  77. Thus, you pay a few $$$ and get relatively large performance increases
  78. for each $. 
  79.  
  80. The only *speed* cost is in maintaining velocity and acceleration information
  81. in your model (for the control points); the (enhanced) scan-converter 
  82. can rasterise this information across (e.g.) a polygon in parallel; that
  83. part doesn't slow down things one bit.
  84.  
  85. In terms of *how many* dollars, I cannot agree. You could whack this 
  86. stuff onto a PC for the price of an expensive video card (once you're
  87. past prototyping, of course). Boosting the rest of your system by a 
  88. factor of ten, as you seem to suggest, is not quite so easy. (Do you 
  89. have a 1 GHz 486? <grin>) Implementing it on more sophisticated systems 
  90. would become increasingly pitifully cheap, relative to the funds sunk 
  91. into the rest of the system.
  92.  
  93. I also do not agree that the amount of circuits needed are not obvious: 
  94. I did not give 74LS numbers, if that is what you mean <grin>, 
  95. but that is because you could put most of the thing (except the RAM) on 
  96. a VLSI chip or two, given incentive to do so; and so in implementation 
  97. terms there will be different strokes for different folks. 
  98.  
  99. I may have missed your point, however; my apologies if so. 
  100.  
  101. > Furthermore slightly similar algorithms have been proposed in the past:
  102. > in the days when batch raytracing took too long to generate enough images
  103. > for motion sequences, people tried to do forms of automatic in-betweening.
  104.  
  105. Yes, the idea is 350 years old <grin>. But the fact is that VR systems STILL
  106. jerk around with motion at 5 or 10 Hz update rate ... the message hasn't
  107. gotten through: there is no need to. If I am guilty of screaming the
  108. obvious at the unconverted, then so be it.
  109.  
  110. > we can come close''.  Unfortunatly the edges is just where the human visual
  111. > system is looking, even small glitches here turn out to be quite percieveble.
  112.  
  113. Yes; but jerky, delayed vision is worse. I have a software demo if you'd like
  114. to see it working in real life; ... it does work! <he says, hysterically :>
  115. Seeing is believing in this case.
  116.  
  117. > Also the amount and complexity of bookeeping could be quite high.  Finially,
  118.  
  119. No. Once the hardware is built and debugged, all the software needs is the
  120. motional data for the control points of the model. This is a small overhead,
  121. not a big problem. You win by a large margin. 
  122.  
  123. > these sort of algorithms are not the sort of thing you have to build custom
  124. > hardware to test out, just modify a slow all-software rendering system,
  125. > batch compute a few dozen frames, and blit the results at 60Hz (or more)
  126. > on a conventional display.  (This would take some effort, but much less
  127. > than typing a 90 page paper.)
  128.  
  129. Agree; agree; agree; sort of; and no. <grin> You want a proof-of-concept 
  130. software simulation; I have the very program you describe right here, 
  131. ready for posting if there is interest. (OK, it's only 25 Hz, not 60, 
  132. and pretty unoptimised to boot, but it's proof of concept, and it proves 
  133. it, no wuckins.)
  134.  
  135. Your parenthetical remarks are not quite correct. It took nine days to
  136. type / proof the paper, but two weeks to write the software <grin>.
  137. [Thinking time (and batteries) not included.]
  138.  
  139. [ I lost track of the following argument ... *grin*]
  140. > pages about the tram and problem with the turist not knowing about the
  141. > double jerk and thus the problem with the matron's lap and, um where was I?
  142. > Oh yes, I was saying that these deversions can tend to make one lose
  143. > track of the point being made, though making the document funnier to read.
  144.  
  145. Guilty as charged, Your Honour. You can get the boy out of mischief,
  146. but you can't get the mischief out of the boy. :)
  147.  
  148.  
  149. Thanks again to Michael for a thoughtful response; and to Mark and Bob
  150. for tolerating this additional traffic at a hectic time <sheepish grin>.
  151.  
  152. John
  153.  
  154. ----------------------------------------------------------------------------
  155. John P. Costella              School of Physics, The University of Melbourne
  156. jpc@tauon.ph.unimelb.edu.au         Tel: +61 3 543-7795, Fax: +61 3 347-4783
  157. ----------------------------------------------------------------------------
  158.