home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #30 / NN_1992_30.iso / spool / sci / virtual / 4082 < prev    next >
Encoding:
Internet Message Format  |  1992-12-13  |  3.6 KB

  1. Path: sparky!uunet!spool.mu.edu!uwm.edu!ogicse!news.u.washington.edu!stein.u.washington.edu!hlab
  2. From: jpc@tauon.ph.unimelb.edu.au (John Costella)
  3. Newsgroups: sci.virtual-worlds
  4. Subject: Re: TECH: Neural Interfacing
  5. Message-ID: <1992Dec14.014514.6568@u.washington.edu>
  6. Date: 13 Dec 92 19:35:59 GMT
  7. Article-I.D.: u.1992Dec14.014514.6568
  8. Sender: news@u.washington.edu (USENET News System)
  9. Organization: University of Washington
  10. Lines: 58
  11. Approved: cyberoid@milton.u.washington.edu
  12. Originator: hlab@stein.u.washington.edu
  13.  
  14.  
  15. > From: chadwell@utkvx3.utk.edu (Chadwell, Leonard)
  16. > In article <1992Dec12.041658.16932@u.washington.edu>, dstampe@psych.toronto.e
  17. >  (Dave Stampe) writes...
  18. > >There seems to be a lot on misinformation about neural connectivity
  19. > >going around, so let me add mine (B-{))
  20. > >
  21. > >First, let's survey the techniques used so far: the up/down computers with
  22. > >pattern recognition and scalp electrodes, multi-electrode EEG, direct
  23. > >cortical contacts, nerve interface chips, and high-resolution NMR.
  24. > >
  25. > [stuff deleted]
  26. > Sorry, Dave, but L. Pinneo at SRI DID use EEG systems to do cortical wave
  27. > pattern matching to qive qualified thought pattern detection.  Running on a P
  28. > in 1974, and a skull cap with electrodes (no shaving or such required), the
  29. > cursor on screen could be issued 7 commmands by thought:  UP,DOWN,LEFT,RIGHT,
  30. > SLOW,FAST,STOP.  The main limitations on the system were the RAM (around 32K)
  31. > and the speed of the processor.  The commands were merely thought, and the
  32. > system could accurately recognize the commands on 60% of the people who were
  33. > tested on the system, and with modification to pattern matching code, could
  34. > also match those people.  With the progress made in raw computing power and
  35. > memory capacity, more commands could be recognized with greater accuracy.
  36.  
  37. If this could be brought up to speed today, for a reasonable price,
  38. then it could be useful for just what is mentioned here: navigating.
  39. No more point, press, or whatever to move around, just think of the
  40. direction you want to move. You'd have to add FORWARD and BACKWARDS
  41. to the commands for VR, but I'm sure that's not too bad. All other
  42. aspects of the VR hardware would still be the same.
  43.  
  44. You'd have to deal with all the mental activity generated by just
  45. being in the virtual world to start with; maybe that would wipe out
  46. the ``movement'' info from noise. But at least it might be feasible,
  47. especially with the meaty processing power around today.
  48.  
  49. But, IMHO, from the info in the posts supplied it's pretty clear that 
  50. this type of app, namely, acting as a physical transducer *from* the
  51. participant, with a low rate of info (bits per second) is about all
  52. that non-intrusive `neural interfaces' will do in the next 10 years. 
  53. I don't think that you'll be able to plug a 80687 maths co-processor 
  54. into your brain real soon. :) I'm not even sure that the brain could 
  55. handle too many more input devices ... aren't all its slots full? :) 
  56. (People with a loss of one or more senses excluded, of course.) Your
  57. best bet is to use the existing inputs (e.g. eyes) and just interface
  58. with them as efficiently as possible (like as in `impedance matched').
  59. Things like the retinal scanner seem to be about the optimal way
  60. to do that (any `ear-drum scanners' out there yet? :), if it turns
  61. out to be cost-effective and light.
  62.  
  63. John
  64.  
  65. ----------------------------------------------------------------------------
  66. John P. Costella              School of Physics, The University of Melbourne
  67. jpc@tauon.ph.unimelb.edu.au         Tel: +61 3 543-7795, Fax: +61 3 347-4783
  68. ----------------------------------------------------------------------------
  69.