home *** CD-ROM | disk | FTP | other *** search
/ The Hacker's Encyclopedia 1998 / hackers_encyclopedia.iso / etc / misc / cyberspc.txt < prev    next >
Encoding:
Text File  |  2003-06-11  |  33.2 KB  |  541 lines

  1. Travels in virtual reality (computer cyber space)
  2.  
  3. SINCE SPRING OF  89 I've made the rounds of the cyberspace circuit, from
  4. AutoCad's "Weird Science" rollout in Anaheim on "VR Day" in June, to the
  5. near-riot at Pacific Bell's Texpo in San Francisco the next day, when jaron
  6. Lanier showed off his "Reality Built for Two" in a secret demonstration
  7. room. I've visited most of the key research sites, from Mountain View,
  8. California, to Chapel Hill, North Carolina, to Seattle, Washington, and back
  9. to Sausalito. Between road trips, I reported some of my preliminary
  10. observations on the WELL. Here are some reports from the outposts of
  11. cyberspace, adapted from my WELL postings, with no real attempt to hang them
  12. together into a framework. DOCKING MOLECULES IN CHAPEL HILL The primary
  13. research instrument of the sciences of complexity is the computer. It is
  14. altering the architectonic of the sciences and the picture we have of
  15. material reality Ever since the rise of modem science three centuries ago,
  16. the instruments of investigation such as telescopes and microscopes were
  17. analytic and promoted the reductionalist view of science. Physics, because
  18. it dealt with the smallest and most reduced entities, was the most
  19. fundamental science. From the laws of physics one could deduce the laws of
  20. chemistry, then of life, and so on up the ladder. This view of nature is not
  21. wrong; but it has been powerfully shaped by available instruments and
  22. technology. The computer, with its ability to manage enormous amounts of
  23. data and to simulate reality, provides a new window on that view of nature.
  24. We may begin to see reality differently simply because the computer produces
  25. knowledge differently from the traditional analytic instruments. It provides
  26. a different angle on reality -Heinz Pagels, The Dreams of Reason The
  27. University of North Carolina at Chapel Hill is the home of one of the most
  28. important and longest-running VR research projects. Driving in from the
  29. airport, I noticed that the motto on North Carolina license plates "First In
  30. Flight" - is appropriate to what I think of as the "Kitty Hawk" state of the
  31. technology. The work at UNC with chemists and virtual model builders has
  32. been going on for twenty years, and is yielding practical results. The
  33. molecular-docking demonstration was a conversion experience for me, at a
  34. point where I had grown skeptical about VR conversion experiences. I've been
  35. excited by the VR demos I've seen for the last year, of course, but I can
  36. see now that my initial excitement was amplified by my internal
  37. extrapolation factor: I had already watched one computer revolution emerge
  38. in Silicon Valley. I remember reading, in 1974, about a company that would
  39. send a microprocessor-based computer for personal use in a kind of build-it
  40. yourself kit: the now-legendary Altair from long-defunct MITS. The data
  41. input on the Altair was accomplished by toggle switches, and the output
  42. device was a small panel of indicator lights. The idea of having my own
  43. computer seemed like a neat idea, but I was nowhere near the kind of
  44. enthusiasm that would have forced me to shell out a couple hundred dollars
  45. for a kit. A couple guys ten years younger than myself saw what something
  46. like the Altair could become someday, and founded Apple Computer. I thought
  47. about the Altair when I looked at that first, crude, monochrome wireframe
  48. world at NASA/Ames. I knew I was looking at an Altair, and extrapolated that
  49. by the time VR technology evolves to a Mac Il level, these grainy,
  50. time-delayed, cartoony "worlds" and the sense of presence they evoke might
  51. truly become a level of reality. The sense of presence, not the inherent
  52. sexiness of the virtual world, is the source of the conversion experience.
  53. And that sense of actually being in another place - cyberspace - can be
  54. enhanced by the proper use of sound, kinesthetic, and tactile feedback.
  55. Conversion experiences in computer science, particularly in the realm of
  56. computer interfaces, have driven the evolution of personal computers. A man
  57. by the name of J.C.R. Licklider had a conversion experience with the PDP-L
  58. in the early 1960s. The PDP-l was the first interactive microcomputer. You
  59. could use a light pen and interact with it directly. It was a puny computer
  60. in today's terms, so there wasn't a great deal that could be done with it.
  61. But Licklider saw its potential and when he went to work for ARPA, funding
  62. futuristic computer research, he ended up funding the development of the
  63. interactive computing systems he had envisioned in a flash the first time he
  64. sat down with a light pen and touched the screen of a PDP-L. Another
  65. maverick computer scientist, originally supported by ARPA, later at SRI, and
  66. now at Stanford, was also motivated by a conversion experience. One day in
  67. 1950 Doug Engelbart realized that the problems of the world were becoming
  68. too complex for people to solve without technological assistance, and that
  69. future computers might be used to amplify the power of human intellect, as
  70. well as perform their first takes of numerical calculation and data
  71. processing. Engelbart's vision of computers that could augment human
  72. intellect was a conceptual breakthrough triggered by a thought experiment
  73. rather than a real experience with a computer, but it was based on his
  74. experiences during the war, when he spent hours staring at radar display
  75. screens. john Walker is another person with the vision to see the
  76. development of virtual reality as a realistic technology to base an
  77. industrial effort on. A legendary programmer and, as it turned out, a shrewd
  78. entrepreneur, Walker was one of the founders and the president of AutoDesk,
  79. a company that has sold hundreds of millions of dollars' worth of programs
  80. for doing computer-aided design (CAD) on personal computers. In 1988, riding
  81. the enormous success of his company, he boldly proposed that AutoDesk ought
  82. to get in the cyberspace business. Walker's paper, published internally as
  83. "Through the Looking Glass," was the story of one person's conversion
  84. experience - a person who happened to have a successful software company to
  85. speed development of his vision. Whenever I stop and think about it, I tend
  86. to agree with the VR visionaries who see this as the biggest thing in
  87. cultural transformation since the printing press. Every time I try it out
  88. for myself, however, I find myself wishing for more visual details, less
  89. time-lag when I move my head, more tactile presence. But the
  90. molecular-docking demonstration I was given at the University of North
  91. Carolina was the convincer for me. It felt like an "intuition amplifier" - a
  92. means of augmenting intellectual capabilities for dealing with complexity.
  93. And it isn't a technology that might be possible in 1995. It's here today.
  94. The head-mount is one of several different displays for the docking setup.
  95. There is a wall-size screen and a special display monitor that is viewed
  96. through more conventional 3-D eyeglasses using electronically polarized
  97. lenses and LCD screens. I used the eyeglasses which quite effectively
  98. displayed the colored clouds of pretzeled molecules depicting protein
  99. receptor sites engulfing the maddeningly complex drug molecule, which was
  100. represented as a tinkertoy-like complex made of solid balls or as a skeletal
  101. structure of lines. The problem here is one of geometrical complexity: there
  102. are far too many possible spatial configurations of drug molecules and
  103. protein molecules for a chemist to find the optimum binding position by
  104. conventional means. The big convincer of the docking demo is the arm, a
  105. device that represents the force-fields that bind molecules together or
  106. cause them to repel one another in terms of mechanical forces that you sense
  107. by gripping a pistol-grip on the end of an electromechanical arm. The arm
  108. descends from the ceiling in classic "sword of Damocles" style. I put on the
  109. glasses, put my foot on a deadman switch, and held the grip. The trigger
  110. grip activates the force feedback. Releasing the grip is like lifting the
  111. mouse from the table. The molecular model of an actual anti-cancer drug
  112. molecule (methotrexate) was already positioned inside the model of the
  113. protein receptor site (dihydrofolate reductase).
  114.  
  115. My job was to find an exact fit in which the two compounds could tightly
  116. bind. The arm has six degrees of freedom, and exerts enough force to tire
  117. your arm if you actively wrestle with a molecule for many minutes. I tried
  118. to twist, rotate, jam, tweak, and frob the thing into place by looking at
  119. the 3D jigsaw puzzle on the screen and manipulating it with my hand. It
  120. didn't take any time at all to develop a sense that I was actually feeling a
  121. molecule "out there" in the space defined by the screen. Even though I know
  122. very little about the chemical architecture symbolized by the various
  123. colored clouds and tinkertoy bonds, I could feel my way into a place where
  124. the arm resisted at a minimum amount between its degrees of freedom. It's
  125. like there is a little pocket of relaxation in the middle of the
  126. force-puzzle-cloud, and if you can feel your way into it, your arm has to
  127. work a whole lot less. When I wrestled the molecule into a relatively
  128. satisfactory zone, bright yellow vectors shot out from the comers of the
  129. drug skeleton. Ming Ouhyoung, the senior graduate student in charge of the
  130. project, pointed out a series of metal knobs on the arm. I was gripping the
  131. molecule in place with my right arm. With my left hand, I could frob the
  132. drug molecule until the yellow lines disappeared  thus deforming the
  133. potential bonds as far as quantum mechanics permits). I imagine that would
  134. have been meaningful if I knew anything about chemistry. In fact, it was
  135. hard to imagine how a chemist could ever devise a molecule to fit that kind
  136. of configuration without 3-D modeling tools; it's a good example of the
  137. class of problems where human thinking capabilities come up against a
  138. complexity barrier. It turned out that there were five little knobs to frob.
  139. The next one minimized the energy levels at certain sites, as displayed by a
  140. simple bar graph that popped up in a window in a corner of the visual space.
  141. I didn't know anything about chemistry, and I had been able to use all my
  142. experience in the world of gravity and manipulable objects, my gut-feel of
  143. the world, to advance a hard problem further than most chemists could have
  144. done without any computer modeling. There are fields in which further
  145. scientific progress is simply not possible without allowing scientists to
  146. stick their heads and hands into 3-D simulations. NASA specialists are using
  147. virtual reality to investigate the complexities of airflow patterns over
  148. airfoil surfaces. The human immune system, with its billions of reactions
  149. per second, and its intricately shape-coded antigens, is another system that
  150. must be modeled in three dimensions in order to be understood. The flows of
  151. atmospheric gases, and other vital planetary systems, are good candidates
  152. for 3-D visualization. Perhaps another scientific/technological field that
  153. cannot be studied in any other way is the telecommunications web that has
  154. grown around the planet into what Xerox PARC researcher Bernardo Huberman
  155. calls "a computational membrane." Tektronix Corporation, which started out
  156. as an oscilloscope company, is already marketing a hardware/ software
  157. package called CAChe (computer-aided chemical modeling). CAChe is a
  158. molecular-modeling program with 3-D input control, stereo 3-D output, and
  159. high computing speed. Tektronix's stereo frame-buffer board fits in a Mac II
  160. and drives a liquid-crystal, stereo frame shutter that covers the monitor's
  161. screen. The unit, transparent to the naked eye, reverses the polarity of the
  162. emerging screen's image at 120 hertz, which provides each eye with a left or
  163. right view at 60 hertz per eye. The view through "electronic shutters"
  164. create a stereoscopic 3D effect by showing alternate views to each eye.
  165. Architectural walk-throughs" in cyberspace have already influenced the
  166. construction of at least one historically appropriate building - Sitterson
  167. Hall, home of the virtual-worlds research laboratory of the University of
  168. North Carolina at Chapel Hill. Before construction began, UNC VR specialists
  169. converted the floor plans into a cyberspace that could be "walked through"
  170. with a head-mounted display and treadmill. Those who were going to use the
  171. building discovered that two walls in the lobby were uncomfortably close
  172. together, creating a cramped feeling. The architect disagreed, until he took
  173. a walk through the simulated building and was convinced to move the wall
  174. when construction began. MARGARET MINSKY'S VIRTUAL SANDPAPER
  175.  
  176. THE FIELD of tactile and kinesthetic force-feedback is perhaps the most
  177. leadng-edge front of the VR revolution, since so much more is known about
  178. visual and auditory perception than about tactile perception. Margaret
  179. Minsky's thesis is a Media Lab-UNC collaboration. The demonstration of 
  180. virtual sandpaper" had been developed in Chapel Hill, but the actual
  181. intelligent joystick I experienced was in her lab, the Snakepit, down in the
  182. bottom of the Media Lab building in Cambridge at MIT. (It says "Snakepit" on
  183. the door, and there were stuffed snakes woven into the ethernet cables
  184. overhead, I noticed.) The force-feedback arm at UNC descended from the
  185. ceiling, rather awesomely. Margaret's joystick looked like a chopstick on
  186. top of a steel ice-cream maker. The mechanisms for two degrees of freedom
  187. were inside the steel box. I grabbed the cylindrical control rod like a
  188. pencil and used it to move the cursor across the screen of Margaret's Mac
  189. 11. She used various menus to create small patches on the screen, filled
  190. with different designs - thick or thin alternating bars, shaded to designate
  191. rounded or rough edges; fractal surfaces that looked like unpolished
  192. granite. Margaret's ultimate goals involve the full human sense of texture
  193. and other related tactile senses. What are the perceptual characteristics
  194. that distinguish fur from sandpaper, and how can they be simulated?
  195. Margaret's specific project involved building a virtual texture simulator
  196. that would allow her to attempt to replicate the research of a
  197. psychophysiologist studying human tactile perception with traditional
  198. psychophysical methods. I moved the steel chopstick like a pen, and when the
  199. cursor moved across the graphic patch of rounded bars, I could feel, through
  200. the variations in feedback force (which were translating the slope of the
  201. virtual curve traversed by the tip of the joystick into counterforces that
  202. resisted my movements in the right direction at the precise amount of
  203. force), the bumpiness of the virtual surface. I felt something bumpy "out
  204. there" with my hands, the way you feel a fence "out there" by running a
  205. stick along it. Then I ran the cursor over a fractal surface and it felt
  206. like I was trying to write with a ballpoint pen on the surface of a piece of
  207. granite. Again, there was a palpable chunk of virtual granite in my
  208. whatever-you-call-the-gut-equivalent-of-"mind's eye." "Where is 
  209. out-there'?" is a very good question. Was I feeling it in my fingers? At the
  210. end of the joystick? On the surface of the screen that depicted the cursor
  211. and the virtual texture? Depending on how I thought about it, I could move
  212. my sense of presence from one to another of those locations. Given visual
  213. and auditory cues, I could see that this sense of physical presence could be
  214. made much more plastic than we are accustomed to feeling when dealing with
  215. solid objects in the external world. She even had a virtual-texture version
  216. of the GRAPH teapot.  For historical reasons having with the whims of a
  217. University of Utah computer scientist who came up with some of the earlier
  218. renderings of solid surfaces, the Association Computing Machinery's annual
  219. Special Interest Group - Graphics conference has always included
  220. increasingly realistic renderings of teapots, year after year. This year,
  221. Nicholas Negroponte harangued the computer graphics subculture about their
  222. obssession with ever-more-realistic teapots and demanded that they direct
  223. their attention back to the use of graphics in the computer interface.
  224. Virtual teapots, I realized, span both areas of concern.) While Margaret and
  225. I talked, I kept running the surface of the cursor over the contours of the
  226. teapot. A strange sensation. I could see how adding this to the kind of
  227. kinesthetic feedback offered by the UNC arm, and the eyephones, and the
  228. datasuit, and 3D audio could begin to approximate vanilla reality to a
  229. disturbing degree. The molecular-docking project had audio feedback to
  230. signify molecular "bump forces," and NASA demos show how auditory tory cues
  231. could be very helpful in trying to fit two pieces of machinery together in
  232. space, via teleoperators ators. Imagine trying to put a key in an unfamiliar
  233. lock in the dark. Imagine if the key and the lock beeped in the right way.
  234. You could couple your muscle movements to your acoustic apparatus for
  235. sensing space. The elasticity of the human capacities cities for feeling
  236. spaces that do or do not exist is another big open question. HOMEBREW VR
  237. JUST CAME BACK from a nifty little ride in one of the first, if not the
  238. actual first  ever homebrew cyberspace. It was assembled from absolute
  239. scratch in one month flat. A little more than 30 days ago, Eric Gullichsen
  240. and Pat Gelband left Autodesk, where they had been working on the cyberspace
  241. project, to start their own company, Sense8. The system they put together is
  242. crude, experientially speaking - about as crude as the Altair, the first
  243. microcomputer kit of the mid-1970s. Since Eric and Pat live and work within
  244. a five minute drive of my house, I've had occasion to observe their progress
  245. firsthand. They got a Pol hemus position-sensing system (easily the most
  246. expensive part of the apparatus) and built their own head-mounted display
  247. from more or less the same off-the-shelf parts that were used at NASA. The
  248. computer is a modified Amiga. Until they get a glove, they are using a
  249. 6-degree-of-freedom orb that has two buttons on it. Very nice. In some ways,
  250. the orb is a better control device than the glove. The glove is very helpful
  251. in establishing your sense of presence and orientation in a virtual world,
  252. but the technology right now is nowhere near as finely tuned as the orb; it
  253. is far easier to zoom around a molecule or a floorplan with the orb than it
  254. is, at present, with a glove. They put together a computing and rendering
  255. engine for about $2,000. Then they wrote the code.
  256.  
  257. I remember dropping by a couple times while they were working it out. Pat
  258. would be doing mathematics with pencil and yellow pad in the kitchen; Eric
  259. would be hacking code in the living room. Having built a cyberspace software
  260. system once before was a big help, but they wanted to do their own system a
  261. different way, for hackeresque as well as legal reasons. They finally got it
  262. working in mid-February.
  263.  
  264. The first world they had working was just a green plane - thirty polygons or
  265. so - with three pyramids. You could use the orb or the buttons and your line
  266. of sight to fly around.
  267.  
  268. Of course, VPUs multi-hundred-thousand-dollar version is slick, and far from
  269. slick enough yet. But the homebrew version, which costs about one percent of
  270. what VPUs system does, is certainly more than a hundred-thousandth as
  271. exciting as the high end worlds. The important point is that it is an
  272. existence proof of homebrew VR. just as enthusiasts like jobs and Woz and
  273. the rest of the homebrew computing club forced the PC to evolve from the
  274. Altair to the Apple, VR enthusiasts can add their efforts to the more
  275. well-funded projects in universities and industrial labs. It is now possible
  276. for people to build systems and exchange worlds, to propagate improvements,
  277. to evolve the way personal computers did. It remains to be seen whether
  278. there will be very many cyberspace homebrewers, or whether they come up with
  279. a rich set of tools, or whether they find ways to share their efforts. But
  280. Sense8's system proves you don't have to be NASA. You don't even have to be
  281. Autodesk. You can do it in your from living room, the way Eric and Pat did.
  282.  
  283. Tomorrow morning, they pack up the system in black ammo boxes and head for a
  284. cyberspace conference in Barcelona, with William Gibson and Tim Leary. I
  285. wish I could say I was covering the story. I'm packing my raincoat and
  286. heading for Seattle.
  287.  
  288. HITL, THE PORT OF SEATTLE, AND VR
  289.  
  290. AS A COMMUNICATION-AUGMENTING TOOL
  291.  
  292. I JUST RETURNED from Seattle and Vancouver. Tom Fumess, who was director of
  293. the Air Force Wright-Patterson AFG "Super Cockpit" project for 23 years, has
  294. started the "Human Interface Technology Laboratory" (HITL) at the that
  295. University of Washington. Except for Ivan Sutherland who pretty much quit
  296. the field after creating the "Sword of Damocles" head-mounted display (which
  297. got its name from the fact that the headset the was connected to a heavy
  298. electromechanical tracking device mounted in the ceiling), Furness has been
  299. in this research the longest. Very neat guy. He wants to build a laboratory
  300. to create the hardware, the software, and the mindware the task-specific
  301. applications that will enable people to use VR technology to augment their
  302. physical and mental capabilities. He's very much in the tradition of Doug
  303. Engelbart (intellectual augmentation) and Fred Brooks (intellectual
  304. amplification). One of the more interesting interviews I conducted up there
  305. was with Cecil Patterson, the information systems director for the Port of
  306. Seattle, who is eager to work with HITL to set up a VR system. He has some
  307. interesting reasons for pursuing this technology First, he recognizes that
  308. there is a need for better communication between engineers, facilities
  309. planners, and potential clients, when it comes to discussing the actual
  310. physical configuration of future port facilities. He sees VR as a kind of
  311. "what-if" machine for computer-aided design (CAD). The problem with most CAD
  312. is that designers understand what renderings of designs on a computer screen
  313. mean far better than their clients. The best way to find out how you feel
  314. about a three-dimensional design is to walk around in it and handle it. The
  315. second and, to my mind, most interesting reason Patterson wants VR is that
  316. most of these clients who are in on the planning stages of
  317. multi-hundredmillion-dollar plans are japanese, Chinese, and others for whom
  318. English is not a native language. He hopes that misunderstandings, delays,
  319. and bugs that are caused by the language problem might be mitigated if the
  320. engineers, planners, and clients on both sides of the Pacific could walk
  321. through VR versions of the proposed construction during every stage of the
  322. planning process. That way, even though the spoken language barrier may
  323. remain, the pictorial mental models of what they are planning will be much
  324. more in accord. When different people talk about a three-dimensional object,
  325. there is some question about how similar their mental models are. When they
  326. talk about it and walk around a 3-D model, their mental models are likely to
  327. be much more highly synchronized. jaron Lanier has his dream of VR being the
  328. matrix from which a visual language will emerge, which is a very interesting
  329. idea - but I'm not sure how, when, or if it can be accomplished. But VR as a
  330. communication-augmentation device seems to me immediately practical. I think
  331. this is a very savvy use of the technology. The port directors know that
  332. miscommunication in the planning of such expensive facilities will affect
  333. the region's economic well'being for decades to come. Spending a few tens of
  334. thousands on hardware and software for visualizing and communicating is a
  335. very economical first step in a billion-dollar plan.
  336.  
  337. BUILDING WORLDS WITH JARON
  338.  
  339. IN RESPONSE to my frequent pleas, Jaron gave me a world-building tutorial
  340. last night. My objective is to master the basic steps well enough to build a
  341. world of my own, then step into it and fly around. I had an idea in mind.
  342. Since we had been conversing about ecstasy and VR and my theory that a
  343. cleverly designed world might help create a healthy sort of ecstasy, I
  344. thought I'd like to build a full-scale kiva - a ritual space used by the
  345. Pueblo tribes of the southwest. There would be a subterranean chamber, and a
  346. ladder out of it. At the top of the ladder is the surface of the planet. If
  347. you flew off the planet, you would see oceans, continents, and clouds. There
  348. would be a moon, orbiting the planet. And stars. A basic cosmos. It is, in
  349. fact, the first actual planet that anybody has built at VPL. Maybe the first
  350. virtual planet anybody ever built anywhere. The worldbuilding process starts
  351. with Swivel-3D, a slightly Macdraw-like (but more complicated) tool for
  352. creating 3-D models on the Macintosh. Later, after the basic structures are
  353. created, another program is used to add dynamics; ultimately, the software
  354. describing the set of objects that constitutes a world is moved from the
  355. Macintosh format to a Unix-readable form. Then VPI:s language, "Body
  356. Electric," is used to map the world to the input devices. Worlds created
  357. this way can be linked and embedded within one another. Who knows what
  358. future planet-builders might add to our basic design? jaron handled the
  359. commands this time while I helped him zero in on what I had in mind. The
  360. first image of the world was a wireframe sphere, which we colored blue in
  361. solid mode. It is faster to shape the basic structures in wireframe, then
  362. issue a menu command to render them as solids. Then lighting and shadow
  363. effects can be tweaked. What you see are four windows, three showing views
  364. of the object being edited, from the x, y, and z axes, and one window
  365. showing the object as it would appear in perspective. Next, we created a
  366. duplicate sphere, just slightly larger than the blue one, and colored one or
  367. two regions of the second sphere brown. Then we centered the second sphere
  368. around the same center as the first one and linked them together. Since the
  369. second sphere was just a bit larger, the brown "continents" stood out from
  370. the blue "oceans." The next sphere, colored white, had tinier regions as 
  371. clouds," and it stuck out quite a bit more on the z-axis. We only used about
  372. 80 polygons out of a maximum 2,000 possible for each frame, so it isn't the
  373. most realistic world when you see it close up. Not yet. Zooming away into
  374. space, it looks pretty good, though. Recognizable as a planet. Then we
  375. created a smaller, gray sphere, linked and constrained it so it appears to
  376. be orbiting the planet. And stars. That's as far as we got on that pass.
  377. More later. TACTILE FEEDBACK FROM BRAILLE TO DILDONICS
  378.  
  379. DAVE JOHNSON of the TiNi Company invited me to come by his
  380. laboratory-office-factory to see the work they are doing with a
  381. tactile-feedback prototype. It was in a postmodern corrugated-steel
  382. lightindustrial building in Emeryville, a formerly decaying heavy-industrial
  383. area south of Berkeley that now seems to be reemerging as a center of late
  384. twentieth-century microtechnologies - there are software companies and
  385. futurists, genetic-engineering plants and digital mapping outfits within a
  386. few blocks of TiNi. The TiNi plant was reminiscent of what Edison's Menlo
  387. Park facility must have been like - everything under one roof. johnson had
  388. been working under contract for the Air Force. The "Super Cockpit" project
  389. at WrightPatterson Air Force Base had included plans for a glove that
  390. included miniature force-feedback sensors so pilots could get the fingertip
  391. feel of virtual switches; that is, the pilot wears a head-mounted display
  392. and sees a virtual depiction of the landscape (with bright red  zones of
  393. lethality" surrounding anti-aircraft missile batteries, and overlaid grids
  394. marking optimal flight paths to targets, and eyetracking target-detection,
  395. etc) and a depiction of a virtual control panel. He reaches out his hand to
  396. one of the virtual switches, and when he actuates it, he not only sees the
  397. computer-graphic representation.of the switch move, and hears it "click" if
  398. need be, but he also feels it toggle. This glove doesn't exist yet. And
  399. neither does a multi-line braille computer terminal. But the TiNi folks
  400. think their technology will lead to such items. (And I think that you don't
  401. have far to go to build a tactile-sensitive bodysuit, once you can build a
  402. tactile sensor-actuator glove.) TiNi uses "shape memory" alloys such as
  403. nitinol as the basis for a little grid of what look like little
  404. ballpoint-pen tips. The alloy assumes one shape when it is cast, then when
  405. it is cooled, it can be formed into other shapes; when heated again, it
  406. returns to the original shape. It can be used to perform the kind of
  407. mechanical switching that solenoids do, on a smaller scale. By entering the
  408. proper command to the computer interface, the 6- by 5-pin array, about 3/4"
  409. square, starts moving. I touched my finger to the grid, and felt something
  410. like a pencil lead underneath a piece of cloth moving across my fingertip as
  411. the rows of pins were activated in the proper sequence; I could feel the
  412. individual pins, but I could also perceive their synchronous movement as
  413. being akin to a pencil lead underneath a piece of cloth - there was a
  414. tactile whisper of possibility. The speed and pattern of activation can be
  415. controlled by software. Not a heck of a lot is known about tactile
  416. perception, certainly not in comparison to the scientific knowledge about
  417. visual and auditory perception. But those pins FELT GOOD! Kinda tickly and
  418. soothing. My friend Flash Gordon has a chair that does something with your
  419. vertebrae that can seem obscenely pleasant. It's a bit like that. The
  420. possibility of virtual dildonics, however, is a topic of its own. I see at
  421. least ten years, probably more like twenty, of extensive research to get to
  422. a truly lifelike televirtual tactile experience. At a recent scientific
  423. conference in Santa Barbara, I met the head of the machine perception group
  424. at AT&T Bell labs, whose research goal is to find a way for AT&T customers
  425. to actually "reach out and touch someone" (although perhaps not as
  426. intimately as would-be dildonists fantasize).
  427.  
  428. VIRTUAL WORLDS AND THE VIRTUAL COMMUNITY
  429.  
  430. WHEN I STARTED traveling from one research site to another, and started
  431. collecting information about virtual worlds research, it became clear to me
  432. that the many different related subdisciplines necessary for building
  433. virtual worlds are proliferating information very rapidly - too fast for
  434. anybody to keep up. As a firm believer in the power of electronically
  435. mediated virtual communities, I proposed to Tom Furness that HITL sponsor a
  436. newsgroup on Usenet (WER #65, p. 112). This would have several benefits.
  437. First, it would serve as an informal channel for exchanging information in
  438. the VR research community, and a place to discuss issues. Second, it would
  439. make people in the field aware of each other's efforts. Third, it would make
  440. it easier to gather information for my book. I was already a
  441. participant-observer. I might as well just jump right into the field I'm
  442. trying to chronicle. I agreed to become the moderator of the new newsgroup,
  443. which is called scivirtual-worlds. If you have access to Usenet, you should
  444. be able to gain access. The following is excerpted from the statement that
  445. first proposed the new newsgroup, drafted by Bob jacobson at HITL:
  446.  
  447. The Human Interface Technology Laboratory at
  448.  
  449. the University of Washington proposes to host
  450.  
  451. this newsgroup for the study of  virtual-world
  452.  
  453. phenomena. We believe that the coming proliferation
  454.  
  455. of virtual-world phenomena, made possible
  456.  
  457. by powerful virtual-interface technology,
  458.  
  459. requires the scientific community served by
  460.  
  461. Usenet to begin debating how this technology
  462.  
  463. will be employed. Further, with additional research
  464.  
  465. on virtual-world phenomena taking place
  466.  
  467. at more and more research sites, and in a growing
  468.  
  469. Press <CR> for more ! 
  470.  
  471.  
  472. number of fields - aerospace, medicine,
  473.  
  474. entertainment, education, and science - it is
  475.  
  476. imperitive that there be a forum where the outcomes
  477.  
  478. of this research can be shared most widely.
  479.  
  480. A  virtual world " is a unique, intangible bu t
  481.  
  482. highly designed information environment generated
  483.  
  484. by a computer and transmitted by  virtual interface"
  485.  
  486. technology to a user who  enters"
  487.  
  488. the virtual world via appropriate sensory mechanisms.
  489.  
  490. The virtual-world environment can
  491.  
  492. be as complex as a three-dimensional "sense
  493.  
  494. surround" comprising seamless visual, aural,
  495.  
  496. and tactile cues; or as simple as a computer conferencing
  497.  
  498. system. Virtual worlds are designed to
  499.  
  500. increase the bandwidth of communication between
  501.  
  502. the computer and the human being, to
  503.  
  504. facilitate their interaction, and ultimately to
  505.  
  506. improve the human being's understanding and
  507.  
  508. performance. The subject of this newsgroup will
  509.  
  510. be virtual worlds in all their aspects: the theory
  511.  
  512. of virtuality, the technology that is being developed
  513.  
  514. and employed to create virtual-world environments,
  515.  
  516. the people and places working on
  517.  
  518. virtual worlds, and the philosophical questions
  519.  
  520. and social consequences attendant upon the
  521.  
  522. emergence of this new medium of communication.
  523.  
  524. The Laboratory intends to make available
  525.  
  526. via Usenet a database referencing the items in
  527.  
  528. its considerable library regarding virtual-worlds
  529.  
  530. phenomena and research. The database is in
  531.  
  532. preparation. An announcement will be made
  533.  
  534. when this archive is publicly available. n
  535.  
  536. ----------------------------------------------------------------------------
  537.  
  538. Call THC BBS: +1 604 361 1464 HST   1:340/26   Over 6,200 Text Files!
  539. "Reach for the edges of your mind"
  540.  
  541.