home *** CD-ROM | disk | FTP | other *** search
/ Giga Games 1 / Giga Games.iso / net / vir_real / papers / psotka.egc < prev    next >
Encoding:
Text File  |  1993-06-20  |  14.6 KB  |  271 lines

  1.         Virtual Egocenters as a Function of Display Field of View and Viewing
  2.                                  Station  Point
  3.  
  4.  
  5.                                 Joseph Psotka, Ph.D.
  6.                                 U. S. Army Research Institute
  7.                                 ATTN: PERI-ICC
  8.                                 5001 Eisenhower Avenue
  9.                                 Alexandria, VA  22333-5600
  10.  
  11.                                 (703)274-5540/5545/5569
  12.                 Psotka@alexandria-emh2.army.mil   or        psotka@26.1.0.50
  13.                                 FAX:   274-5461
  14.  
  15. Abstract
  16.  
  17. The location of one's virtual egocenter in a geometric space is of critical
  18. importance for immersion technologies.  Fourteen Ss viewed an animated 3D model
  19. of the room in which they sat from  either .3 or .8 meters.  The display was  on
  20. a  190 by 245  mm monitor.  They saw four models of the room designed with four
  21. geometric field of view (FOVg) conditions of 18, 48, 86, and 140 degrees.  They
  22. drew the apparent paths of the camera in the room on a bitmap of the room as
  23. seen from infinity above.  Large differences in the paths of the camera were
  24. seen as a function of both FOVg and  viewing station point.  Ten Ss were then
  25. asked to find the position for each display that minimized camera motion.  The
  26. results fit well with predictions from an equation that took the ratio of  human
  27. FOV (roughly 180 degrees) to FOVg times the Projection Point (PP) of the image:
  28.                         Zero Station Point = (180/FOVg)*PP
  29.  
  30.  
  31. Introduction
  32.  
  33. The location of one's virtual egocenter in a geometric space is of critical
  34. importance for immersion.  Furness (1992) and Howlett (1990) report that
  35. immersion is only experienced when the field of view (FOV) is greater than 60
  36. degrees, or at least in the 60 to 90 degrees of FOV range.  Why this should be
  37. is not understood, nor are there theoretical frameworks for beginning to
  38. understand this phenomenon.  As a start this research begins to explore how
  39. egocenters are determined from perceptual arrays.
  40.  
  41. Some work exists that may be helpful to understand the psychology of egocenters
  42. (Howard, 1982; Ono, 1981). Kubovy (1986)  provides an insightful description of
  43. the use of techniques  by Renaissance artists to manipulate the location of
  44. virtual egocenters, and thus manipulate attitudes and emotions. A series of
  45. experiments by Ellis (McGreevy and Ellis, 1986; Nemire and Ellis,1991) may
  46. indirectly reflect on virtual egocenters.   Ellis and McGreevy discovered a
  47. systematic error in pointing the direction of objects in a virtual display.  The
  48. error was a function of the geometric FOV of the display.  They developed a
  49. complex model that accurately predicted these errors on the basis of memory for
  50. the size and shape of objects and geometric distortion based on linear
  51. projections.  The regular shape of the error (see Figure 1) led me to think that
  52. it could also be produced by an altered location of the virtual egocenter in the
  53. display such that for small FOV the observer located the virtual egocenter too
  54. near to the objects; and for wide FOV the observer located the virtual egocenter
  55. too far from the objects.  Ellis and Nemire added some evidence for this
  56. hypothesis by demonstrating that the enhanced structure of a pitched optic array
  57. does bias the perception of gravity-referenced eye level.  This finding is a
  58. direct replication of Kubovy's arguments about egocenters and Renaissance
  59. artists.  These experiments are an extension of Ellis' work  to confirm his
  60. findings and extend his interpretation of their source.
  61.  
  62. ------------------------
  63. Place Figure 1 About Here
  64. ------------------------
  65.  
  66. Stimuli
  67.  
  68.           An accurate model of an office was constructed using 3D Studio on a
  69.  386 PC with VGA graphics.  The model contained walls, floor, and ceiling, 
  70. three tables with computers and displays, two bookshelves with empty shelves, 
  71. and two wastebaskets in the room.  It was rendered with Phong shading and 
  72. looked like a reasonable cartoon of the actual office holding the equipment  
  73. (see Figure 2).
  74.  
  75. ------------------------
  76. Place Figure 2 About Here
  77. ------------------------
  78.  
  79. Animations of this model  were then created showing a stationary camera located
  80. at the geometric center of the room panning slowly  360 degrees around the room.
  81. Four animations were created with four different lenses for the scene:  17, 28,
  82. 50, and 135 mm.  The geometric field of view for each of these lenses was:  140,
  83. 86, 48, and 18 degrees, respectively, where 140 degrees is similar to a fish-eye
  84. lens and 18 degrees is a telephoto view. The animations were viewed on a flat
  85. screen Zenith monitor whose screen dimensions were 190 by 245 mm.  Subjects
  86. viewed the animations from two locations  800 and 300 mm from the screen.  At
  87. those sites the screen subtended a FOV of 17 and 45 degrees, approximately.
  88. Although their heads were not restrained mechanically, Ss held their positions
  89. reasonably well.
  90.  
  91. The projection point of each of these lenses was 40, 140, 290, and 800 mm in the
  92. room.  These projection points are independent of the viewerUs location.  They
  93. are dependent on the actual size of the viewing screen.  Thus the two viewing
  94. sites for the subjects corresponded approximately to the projection points for
  95. the lenses  of 135 and 50 mm.
  96.  
  97. Procedure
  98.  
  99.   Subjects were asked to view the animations and determine the location and path
  100. of the camera in each animation.  They were told that the animation was of the
  101. very same room where they sat. They were shown a bitmap hardcopy of the room
  102. from an overhead view and asked to trace the path of the camera on it.  They
  103. were not specifically told that the geometric "camera" was mathematically  or
  104. "theoretically" stationary in the animations.
  105.  
  106.         Fourteen students and colleagues with a variety of psychological 
  107. training served as experimental subjects without pay.
  108.  
  109.      Ten of these Ss were asked at the end of the experiment to select for each
  110. animation the viewing station that produced the least camera motion.
  111.  
  112. Results
  113.  
  114.  In general, the subjects had no difficulty describing the apparent paths of the
  115. camera as they saw it  as oval  paths of varying eccentricity  centered on the
  116. geometric  center of the room.   The diameters of the ovals varied with the
  117. focal length of the lens.   The width of these ovals  in room coordinate system
  118. for each animation a  nd station point are given in Table 1.  A positive number
  119. indicates that the camera view was across the center of the room; and a negative
  120. number indicates the camera was stationed closer to the scene than the center of
  121. the room.  A zero would indicate the geometric center of the room.
  122.  
  123.                                 Table 1
  124.                 Width of Camera Path as a function of FOVg and Station Point
  125.  
  126.                                    Geometric Field of View of Room
  127. Station Point              18             48             86             140
  128.  
  129. Group 1 - .3m           -1082.5         -557.5          167.5           1825.0
  130.  
  131. Group 2 -  .8m          -1570.0         -155.0          832.5           1077.5
  132.  
  133.  Both viewing sites yielded similar relationships between the diameters of the
  134. axes and the geometric FOV of the animations (see Figure 3), but the viewing
  135. site of 800 mm produced concave  functions, whereas the viewing site of 300 mm
  136. produced convex functions.
  137.  
  138. By interpolating these points, one can determine where Ss would have seen no
  139. camera motion.
  140.     For the 800 mm view site, the paths had 0 diameter with 60 degree FOV or  a
  141. projection point of approximately 250 mm.
  142.     For the 300 mm view site, the paths had 0 diameter with 80 degree FOV or  a
  143. projection point of approximately 150 mm.
  144.  
  145. The mean locations for the station points with least camera motion were  9112,
  146. 1092, 291, and 53 mm from the monitor for the four geometric fields of view of
  147. 18, 48, 86,  and 140 degrees, respectively, whose projection points were 800,
  148. 290, 140, and 40 mm.
  149.  
  150. Discussion
  151.  
  152. It appears that the egocentric station point is affected by the geometric FOV of
  153. the displayed image; the relationship between the viewing site and the geometric
  154. projection point, and the actual FOV of the image.  The location of the
  155. egocenter is NOT experienced as the same as the geometric station point of the
  156. camera under any of the conditions of these experiments.  
  157.  
  158. It appears that the least egocenter motion was produced in these experiments
  159. with a FOV that varied between 48 and 86 degrees, curiously close to the
  160. required limits in order to experience satisfactory immersion (Furness, 1992).
  161. However, this appears to be an accident of the stimulus conditions   in this
  162. experiment.  egocenter motion was almost completely nullified   for the 17 mm
  163. lens ( and 140 FOV) at a viewing site of  50 mm ; and for the 28 mm lens (and 86
  164. FOV) at  a viewing site of  290 mm.  The other two animations did not appear to
  165. have a station point that yielded 0 camera path; although the station points
  166. selected by subjects did appear to reduce the absolute value of the camera path
  167. substantially.  This finding needs to be explored further.  It may be related to
  168. the finding that immersion is not satisfactory with displays that are less than
  169. 40 degreees  because no satisfactory compromise exists between the conflicting
  170. cues of linear  perspective and the visual systemUs need for a visual field of
  171. 180 degreees to find a stationary egocenter.
  172.  
  173. Ss repeatedly  remarked that they appeared to be using the frame of the monitor
  174. as the frame of reference of their retinal field.   When asked to describe what
  175. was happening,  they said they appeared to be contracting their field of
  176. attention to the frame of the monitor, and then treating that as if ti were
  177. their entire 180 degree visual field.  If they were in fact doing this at a
  178. processing level, then the projection point of the animation would not be
  179. determined by the size of the monitor, but by the virtual size of their expanded
  180. attentional field, roughly  180 degrees.   The projection point  would then be
  181. expanded by a similar ratio, yielding the enlarged path of the camera with
  182. smaller FOVg.  In fact, if one proposed that  the zero station point is
  183. determined by the product of the  animationUs projection point (PP) times the
  184. ratio of 180/FOVg, one could calculate the predicted station points for zero
  185. camera motion.  
  186.                 Zero Station Point = (180/FOVg)*PP
  187. For this experiment these predictions are: 8000, 1100, 287, and 50 mm. quite
  188. close to the empirical values of :       9112, 1092, 291, and 53 mm.  This seems
  189. to indicate that when the FOVg is 180 degrees, the egocenter is located
  190. correctly, but when the FOVg is less than 180 degrees, the egocenter is
  191. displaced  proportionately.  What might happen with a field of view greater than
  192. 180 degrees?
  193.  
  194.  
  195. Clearly much work remains to be done  if we wish to specify exactly how people
  196. interpret constructed geometric displays  to select their egocentric viewing
  197. spot.  Yet this work is very necessary if we wish to be able to create
  198. three-dimensional models  that have the power to generate a truly satisfying and
  199. natural immersion experience.
  200.  
  201. For psychological theory, this research opens the possibility of dealing
  202. quantitatively with very abstract constructs, like virtual egocenters,  in ways
  203. that were either impossible or very difficult without the new VR technologies.
  204. Clearly parametric studies need to be carried  out in detail to create a
  205. nomograph of functions relating egocenter to FOVg and viewing station points.
  206. This pilot work suggests that even very close viewing station points such as
  207. those with head mounted displays (HMDs) are not immune to illusions caused by
  208. FOV that are smaller than 180 degrees.  Their possible implication in more
  209. severe phenomena like simulator sickness, or less severe discomfort and dislike
  210. of HMDs is only one further direction that needs exploration.  It is clear, for
  211. instance, that these sorts of egocenter illusions adapt out very quickly in a VR
  212. environment.  However, after adaptation is more or less complete, are there
  213. still physiological conflicts that can be detected in response to the
  214. conflicting cues of linear perspective and reduced FOV?  Are there aftereffects
  215. that return to the real visual world? 
  216.  
  217.  
  218. Other, broader theoretical issues that need exploration are higher order
  219. cognitive implications of these new relations  between multiple realities.  When
  220. we view the animation apparently rotating on the monitor, somehow we build up a
  221. model of the room.  That model is also somehow projected into the same space as
  222. the real room that we occupy.  While viewing the animation, we have both an
  223. egocenter in real space, and a virtual egocenter in the space of the animation.
  224. It appears from these experiments that those egocenters interact with each other
  225. so that we feel some conflict as we rotate and move in one and remain stationary
  226. in the other.  What are the long term effects of this conflict?  For instance,
  227. if parts of the visual field, or even half or more of it were blocked out and
  228. replaced with active noise, would observers begin experiencing   something like
  229. lateral neglect?  What would happen if we decorrelated color patches  from
  230. objects?  We know for instance, that color is processed in separate pathways
  231. from form (Livingstone and Hubel, 1987).  Using VR technologies, could these
  232. separate pathways be made explicit and what would its effects be?  What are the
  233. memory implications for conflicts between one reality and another?  What are the
  234. physiological processing correlates of immersion?  These are only some of the
  235. interesting psychological questions that need a firm base of experimental data
  236. to rest the initial creation of exploratory theoretical frameworks.
  237.  
  238.  
  239. References 
  240.  
  241. Ellis, S. R.  (Ed.), (1991).  Pictorial Communication in Virtual and Real
  242. Environments.  London:  Taylor and Francis.
  243.  
  244. Furness, T.  (1992)  Personal communication.
  245.  
  246. Howard, I. P. (1982).  Human Visual Orientation.  New York:  Wiley.
  247.  
  248. Howlet, E. M.  (1990).  Wide angle orthostereo.  In  Merritt, J. O. and Fisher,
  249. S. S. (Eds.)  Stereoscopic displays and Applications.  Bellingham, WA:  The
  250. International Society for Optical Engineering.
  251.  
  252. Kubovy, M. (1986)  The psychology of perspective and Renaissance art.
  253. Cambridge:  Cambridge University Press.
  254.  
  255. Livingstone, M. s. and Hubel, D. H.  (1987).  Psychophysical evidence for
  256. separate channels for the perception of form, color, movement, and depth.
  257. Journal of Neuroscience, 7, 3416 - 3468.
  258.  
  259. McGreevy, M. W. and Ellis,  S. R. (1986). The effect of perspective geometry on
  260. judged direction in spatial information instruments.  Human Factors, 28, 439 -
  261. 456.
  262.  
  263. Nemire,  and Ellis, S. R.  (1991)  Optic bias of perceived eye level depends on
  264. structure of the pitched optic array.  Presented at the Psychonomic Society, San
  265. Francisco, CA.
  266.  
  267. Ono, H.  (1981).  On Well's (1792) law of visual direction.  Perception and
  268. Psychophysics, 30, 403-406.
  269.  
  270.  
  271.