home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #16 / NN_1992_16.iso / spool / comp / sys / sgi / 11595 < prev    next >
Encoding:
Text File  |  1992-07-29  |  3.0 KB  |  58 lines

  1. Newsgroups: comp.sys.sgi
  2. Path: sparky!uunet!haven.umd.edu!darwin.sura.net!mips!odin!fido!mopar!hal
  3. From: hal@mopar.asd.sgi.com (John Hallesy)
  4. Subject: Re: Need help for VideoLab
  5. Message-ID: <ntl6a30@fido.asd.sgi.com>
  6. Sender: news@fido.asd.sgi.com (Usenet News Admin)
  7. Organization:  Silicon Graphics, Inc.  Mountain View, CA
  8. References: <29JUL92.22324396@twncu865.ncu.edu.tw>
  9. Date: Wed, 29 Jul 1992 18:27:31 GMT
  10. Lines: 46
  11.  
  12. In <29JUL92.22324396@twncu865.ncu.edu.tw> guest@twncu865.ncu.edu.tw writes:
  13.  
  14. >Hi, everyone:
  15. >      Our lab is planning to order a VideoLab for a 320/VGX but we recently
  16. >      heard that product can't support the function of capturing single frame
  17. >      from input video. It is different from data sheet that we got from
  18. >      local distributor and the NEWS RELEASE released by SGI company in which
  19. >      "Video can digitized to the screen at real-time video rates or stored on
  20. >      disk or in memory as SINGLE IMAGES or SETS OF IMAGES" was reported.
  21. >      Could anyone tell me what is the difference or the truth?  Compared to
  22. >      VideoFrame and VideoCreator,  what's the improved function of VideoLab ?
  23. >      The last    question is why the VideoLab don't provide the video format of
  24. >      NTSC or PAL? Is there any method to convert NTSC or PAL to the format
  25. >      provided by VideoLab when we must use it?
  26.  
  27.  
  28. >      Any help will be much appreciated.
  29.  
  30. >      J. R. Liao   engineer@amy.cc.nctu.edu.tw
  31.  
  32. I don't know where you heard that VideoLab can't capture single frames from
  33. video input, but it most certainly does; we capture an incoming RGB, YUV
  34. (e.g. Betacam, MII, Smpte), or D1 video signal and place it in a dedicated
  35. frame buffer.  From there it can be transferred to the graphics buffer or to
  36. host memory.  You can transfer frames into the graphics buffer at live video 
  37. rates, and can transfer frames into host memory at less than live video rates.
  38.  
  39. Compared to VideoFramer, you get realtime video output from a scanned portion
  40. of the workstation's graphics buffer, in either 'pass-through' mode or in a
  41. VideoCreator style 'scan conversion' mode.  The scan conversion on VideoLab
  42. is done digitally, so the video output has much higher quality than the 
  43. VideoCreator.  Unlike the VideoFramer, VideoLab allows you to read RGB data 
  44. directly from a YUV or D1 input source with no software conversion overhead 
  45. (so it's much faster), and the performance of the graphics bus to the MP bus 
  46. is much better than the VME bus limited VideoFramer.  (So, video input to host 
  47. memory is much faster than VideoFramer).
  48.  
  49. Lastly, NTSC & PAL video outputs were not provided becuase we couldn't fit a
  50. broadcast quality implementation onto the board; we felt that users who needed
  51. to go to these formats would keep their video processing in component from 
  52. up until the last edit cycle to tape, at which point you can use an external
  53. encoder to convert from RGB/YUV to NTSC/PAL.  Similarly, you can purchase an
  54. external decoder to convert from NTSC/PAL to RGB/YUV, at which point it can
  55. be fed into the VideoLab's video input.
  56.  
  57.                         --hal@sgi.com
  58.