home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #16 / NN_1992_16.iso / spool / sci / virtual / 2521 < prev    next >
Encoding:
Internet Message Format  |  1992-07-22  |  1.5 KB

  1. Path: sparky!uunet!zephyr.ens.tek.com!uw-beaver!news.u.washington.edu!milton.u.washington.edu!hlab
  2. From: bar-zeev@tortoise.cis.ohio-state.edu (avi bar-zeev)
  3. Newsgroups: sci.virtual-worlds
  4. Subject: Re: TECH: Text interfaces
  5. Message-ID: <1992Jul22.142256.5790@cis.ohio-state.edu>
  6. Date: 22 Jul 92 14:22:56 GMT
  7. References: <1992Jul22.005552.9901@u.washington.edu>
  8. Sender: news@u.washington.edu (USENET News System)
  9. Organization: The Ohio State University, Department of Computer
  10. Lines: 23
  11. Approved: cyberoid@milton.u.washington.edu
  12. Originator: hlab@milton.u.washington.edu
  13.  
  14.  
  15.  
  16. I like the idea of a virtual monitor WITHIN the virtual world.  You
  17. can either use texture mapping to render the text/graphics in 3-D or
  18. modify scalable font routines to draw in 3-D instead of 2-D.  I can
  19. imagine a virtual monitor resting in space, maybe even with controls
  20. which mimic real controls (brightness, on/off, etc).  The user can, of
  21. course, rotate and pull the monitor as close as he/she wants without a
  22. "mom" jumping out and warning us about going blind.
  23.  
  24. As for input, when we have fast update, tactile feedback, and two
  25. gloves per person, a virtual keyboard with realistic action (in any
  26. style - manual, electric, computer, etc) might be possible, although
  27. it might not be practical.
  28.  
  29. There may be a better way, though. I don't remember if it was this
  30. group or comp.human-factors which was talking about using Sign
  31. language in VR.  I don't know the current state of gesture
  32. recognition, though.
  33.  
  34. Then again, there's always speech recognition...
  35.  
  36. Avi
  37.