home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1993 #3 / NN_1993_3.iso / spool / sci / image / processi / 1741 < prev    next >
Encoding:
Text File  |  1993-01-28  |  11.5 KB  |  303 lines

  1. Newsgroups: sci.image.processing
  2. Path: sparky!uunet!charon.amdahl.com!pacbell.com!ames!haven.umd.edu!darwin.sura.net!news.duc.auburn.edu!eng.auburn.edu!sjreeves
  3. From: sjreeves@eng.auburn.edu (Stan Reeves)
  4. Subject: object tracking (summary)
  5. Message-ID: <sjreeves.930126110714@eng.auburn.edu>
  6. Sender: usenet@news.duc.auburn.edu (News Account)
  7. Nntp-Posting-Host: fourier.ee.eng.auburn.edu
  8. Organization: Auburn University Engineering
  9. Date: Tue, 26 Jan 1993 17:07:14 GMT
  10. Lines: 291
  11.  
  12.  
  13. I recently posted the following question:
  14.  
  15.    Beginning in January, I will be leading a senior design project that
  16.    involves tracking a single rigid object in an image sequence.  Can
  17.    anyone suggest some standard algorithms for accomplishing this?  I
  18.    could dream up several approaches, but I would like to point the 
  19.    students to some references on techniques that are commonly used for
  20.    this type of problem.  I'm hoping to have them check out more than
  21.    one approach, so a variety of responses would be great.  Any help is
  22.    appreciated.  
  23.  
  24. Here is a summary of the responses I got:
  25.  
  26. >From olli@ee.oulu.fi Wed Dec 30 00:07:12 1992
  27.  
  28. You leave many questions open.
  29. Do you want to do the tracking with 6-dof or just 2-dof?
  30. How much computation is allowed? Is the camera system 
  31. stationary? What kind of camera system is used? 
  32. Is the object known?
  33. Anyway, the 2-dof problem is trivial, the 6-dof case is
  34. much more than 3-times more difficult.
  35.  
  36. Obviously, your purpose is not to produce a working system for
  37. a real environment, but a paper of some sort.
  38. Thus, take a look at the following paper:
  39. Broida, Chandrashekhar, Chellappa: Recursive 3-D Motion Estimation...
  40. IEEE Transactions on Aerospace and Electronic Systems, vol 26, no 4, 1990.
  41. The references give you an idea of the published work in this area,
  42. in particular, read the reference 15 (Dickmanns) and its companion article.
  43.  
  44. You should be aware of that the approaches of most papers in this area
  45. do not work very well...
  46.  
  47.  
  48. >From whb@castle.edinburgh.ac.uk Wed Dec 30 05:38:11 1992
  49.  
  50. I read your article with interest. We have implemented bespoke object tracking
  51. algorithms with some success here. The objects are represented by rectangular
  52. bounding boxes and then matched by proximity, direction, speed etc. to a
  53. list of "historical objects". The matched objects are then fed to an object
  54. tracking stage.
  55. The actual tracking is simple compared to identifying the change on which
  56. the objects should be based. A simple pixel difference is easily fooled by
  57. changes in ambient lighting, shadows etc. so we have devised a more 
  58. sophisticated method. I feel that this stage is much harder than the object 
  59. tracking itself.
  60.  
  61.  
  62. >From makrisna@convex1.TCS.Tulane.EDU Wed Dec 30 09:07:50 1992
  63.  
  64.   a better newsgroup will be comp.ai.vision.  but i happen to have a lot of
  65. reference on this subject.  a good place to start will be IEEE PAMI.  there
  66. are in general two approaches.  the first one is based on computing the 
  67. optical flow and the second one is a model based approach.  it will depend 
  68. on what you are trying to do.  the general problem of computing position,
  69. velocity, acceleration etc. for all six degrees of freedom is quite 
  70. difficult.  but if you are just interested in the x, y, and z position of
  71. a simple polygon or polyhedra, there are quite a few ways of doing it.
  72. i am trying to locate a survey on this subject by Thompson in one of the
  73. PAMI issues.  i will send you the reference as soon as i find it.  if you
  74. come across work done by aggarwal at UT Austin, Huang and Illinois, Horn
  75. at MIT and Chellappa and Broida at USC that will be a good start.  best of 
  76. luck.  this is a friend's account but you can send any further questions
  77. here.
  78.  
  79. >From olli@ee.oulu.fi Wed Dec 30 09:31:40 1992
  80.  
  81. >>My follow-up clarification via email:
  82. > I only need two directions --
  83. > the horizontal component parallel to the image plane and the component
  84. > in the direction of the camera
  85.  
  86. You are going to find m-a-n-y references!
  87. And your problem can be solved quite
  88. straightforwardly and reliably (as
  89. long as the camera is stationary with
  90. respect to the background).
  91. A good source to start is the
  92. proceedings of the IEEE workshop on
  93. visual motion, 1991.
  94. (I don't want to give too accurate
  95. pointers, as this seems to be a somekind
  96. of student project. However, simple
  97. ideas work best...).
  98.  
  99. And there are working systems (almost?) for your
  100. purpose. One of the  best I have seen is made by
  101. Imago Machine Vision Inc,
  102. 1750 Courtwood Crescent, Suite 300
  103. Ottawa, Ontario K2C 2B5 Canada
  104. Fax: (613) 226-7743
  105. Tel: (613) 226-7890
  106.  
  107. (you could ask for their brochure and
  108. video tape)
  109.  
  110. >From tom@vexcel.com Wed Dec 30 10:49:11 1992
  111. I have been working on a project to track arctic ice in image
  112. pairs for about 3 years now.  We have developed an automated system
  113. to perform this task.
  114.  
  115. The algorithms that we use for tracking of the ice are of 2
  116. different variations.  The first is a Psi-S algorithm which
  117. first thresholds the images, finds the boudaries of features
  118. within the thresholded images, and then plots the feature boundaries
  119. using a Psi-S convention.  The rigid bodies can be found by correllating
  120. the features Psi-S curves which will match in shape but have an
  121. amplitude variation which indicates rotation of the feature.
  122.  
  123. The second, (and more commonly used) technique is an area
  124. correllation algorthm which finds correllation peaks between
  125. patches of the two images.  This technique breaks down when
  126. there is a lot of rotation of the features.
  127.  
  128. >From hallinan@hrl.harvard.edu Wed Dec 30 12:14:21 1992
  129.  
  130. Horn and Schunk (sp?) have an article in "Artificial Intelligence',
  131. 1981,
  132. that is probably the basic reference for computing optical flow, the
  133. first step in your project.
  134.  
  135. >From danm@cs.ubc.ca Wed Dec 30 15:32:20 1992
  136.  
  137. (Quoting a previous request for references)
  138.  
  139. Date: Fri, 10 Apr 92 10:35:34 SST
  140. From: atreyi@iss.nus.sg (Atreyi Kankanhalli)
  141. Subject: Object Tracking References
  142.  
  143. I had asked for references on "Object Tracking in Image Sequences" a while
  144. ago on this list. I am now posting a compiled set of references which I 
  145. gathered from the responses.
  146.  
  147. ***** References on object tracking *****
  148.  
  149. 1. S.M. Haynes, Ramesh Jain, "A Qualitative Approach for Recovering Relative
  150. Depths in Dynamic Scenes", Proc. of Workshop on Computer Vision, Miami Beach,
  151. FL, Nov.30-Dec.2, 1987.
  152.  
  153. 2. I.K. Sethi, Ramesh Jain, "Finding Trajectories of Feature Points in a
  154. Monocular Image Sequence", IEEE Trans. on PAMI, Vol.9, No.1, 1987, pp.56-73.
  155.  
  156. 3. Michal Irani, Benny Rousso, Shmuel Peleg, "Detecting and Tracking Multiple
  157. Moving Objects Using Temporal Integration", to appear in European Conference
  158. on Computer Vision, 1992.
  159.  
  160. 4. I.K. Sethi, H. Cheung, N. Ramesh, Y.K. Chung, "Automatic Detection of Motion
  161. of Interest for Surveillance", Proc. International Conference on Automation,
  162. Robotics and Computer Vision, Sept. 1990, pp.227-231.
  163.  
  164. I found some additional references in the two volumes 
  165.  
  166. "Computer Vision: Principles" and "Computer Vision: Advances and Applications"
  167. ed. Rangachar Kasturi, Ramesh Jain, IEEE Computer Society Press Tutorial, 1991.
  168.  
  169. I would appreciate any updates to this list.
  170.  
  171.  Atreyi Kankanhalli
  172.  Institute of Systems Science
  173.  National University of Singapore
  174.  Kent Ridge, Singapore 0511
  175.  
  176.  Email: atreyi@iss.nus.sg
  177.  
  178.  
  179. ----------------------------------------------------------------------
  180.  
  181. My supervisor David Lowe has published his work in model based motion
  182. tracking.  See "Fitting Parameterized Three-Dimensional Models to Images",
  183. David G. Lowe, in IEEE Transactions on Pattern Analysis and Machine
  184. Intelligence, Vol.13,No.5,May 1991.
  185.  
  186. Donald Gennery also published results for model based tracking in
  187. "Visual Tracking of Known Three-Dimensional Objects", International Journal
  188. of Computer Vision,7:3, 243-270 (1992).
  189.  
  190. See also Azriel Rosenfeld's survey of computer vision published annually
  191. in CVGIP:Image Understanding, usually in May.
  192.  
  193.  
  194. Hope this helps.
  195.  
  196.         Dan McReynolds <danm@cs.ubc.ca>
  197.         University of British Columbia
  198.         Dept. of Computer Science
  199.  
  200. >From: spl@szechuan.ucsd.edu (Steve Lamont)
  201.  
  202. See Jain, Anil K., _Fundamentals of Image Processing_, ISBN 0-13-336165-9
  203.  
  204. Jain covers this subject quite well in Chapter 9 "Image Analysis and
  205. Computer Vision."  See, in particular, section 9.12, pp. 400-406,
  206. Scene Matching and Detection.
  207.  
  208. I use an adaptation of the correlational techniques described to track
  209. objects (cells) through a series of images at reasonable rates.  The
  210. technique works fairly well even when the cells are undergoing
  211. moderately radical morphological changes.
  212.  
  213.  
  214. >From vision@iro.umontreal.ca Mon Jan  4 09:36:13 1993
  215.  
  216.   I am working on an application of optical flow algorithm on
  217. non-rigid coronary artery bifurcation (tracking). I found the section
  218. 9.12 of Jain's "Fundamentals of Digital image processing" labeled
  219. "scene matching and detection". 
  220.  
  221.  
  222. >From paik@mlo.dec.com Mon Jan  4 17:05:55 1993
  223.  
  224. Possibly this bibliography may be of use (from a project in motion
  225. tracking from a computer vision class).
  226.  
  227. [Anandan89] P. Anandan.  A computation framework and an algorithm for
  228. the measurement of visual motion.  International Journal of Computer
  229. Vision, 2(3):283-310, January 1989.
  230.  
  231. [Braccini86] C. Braccini, G. Gambardella, A. Grattarola, L. Massone,
  232. P. Morasso, G. Sandini, and M. Tistarelli.  Object reconstruction from
  233. motion: comparison and integration of different methods.  Proceedings
  234. of the Intenational Workshop on Time-Varying Image Processing and
  235. Moving Object Recognition, September 1986
  236.  
  237. [Cornelius83] N. Cornelius and T. Kanade.  Adapting optical-flow to
  238. measure object motion in reflectance and X-ray image sequences.
  239. Technical Report CMU-CS-83-119, Carnegie Mellon University, 1983.
  240.  
  241. [Horn81] B. K. P. Horn and B. G. Schunck.  Determining Optical Flow.
  242. Artificial Intelligence, 17:185-203, 1981.
  243.  
  244. [Lucas81] B. D. Lucas and T. Kanade.  An iterative image registration
  245. technique with an application to stereo vision.  Proceedings of the
  246. 7th International Joint Conference on Artificial Intelligence, 1981.
  247.  
  248. [Rehg91] J. M. Rehg and A. P. Witkin.  Visual tracking with
  249. deformation models.  Proceedings of the IEEE Conference on Robotics
  250. and Automation, April 1991.
  251.  
  252. [Tomasi91] C. Tomasi and T. Kanade.  The factorization method for the
  253. recovery of shape and motion from image streams.  DARPA Image
  254. Understanding Workshop, 1991.
  255.  
  256. [Tomasi91b] C. Tomasi.  Personal communication, November 1991.
  257.  
  258. [Tomasi92] C. Tomasi and T. Kanade.  Selecting and tracking features
  259. for image sequence analysis.  Submitted to Robotics & Automation,
  260. 1992.
  261.  
  262.  
  263. >From donohoe@jemez.eece.unm.edu Tue Jan  5 10:07:34 1993
  264.  
  265. I've done some work in object tracking and can send you some references.
  266.  
  267.  
  268. >From mww@eng.cam.ac.uk Wed Jan  6 09:21:30 1993
  269.  
  270. One popular technique is called active contours or "snakes".
  271. The seminal reference would be:
  272. Kass, Witkin,Terzopoulos
  273. Snakes: Active contour models
  274. 1st  Int Conf on Computer Vision 1987, pp259-268
  275.  
  276. Check out simpler and more computationally efficient 
  277. implimentations using b-splines eg:
  278.  
  279. Curwen, Blake and Cipolla
  280. Parallel impimentation of Lagrangian Dynamics for real time
  281. snakes. 
  282. British Machine Vision Conference 1991,pp29-35
  283.  
  284. Other techniques:
  285. The simplest would probably be frame differencing 
  286. (assuming static camera), Autocorrelation,
  287. corner tracking.
  288.  
  289.  
  290. ---------------------------------------------------------------------------
  291. ---------------------------------------------------------------------------
  292. ---------------------------------------------------------------------------
  293.  
  294. Thanks to everyone who contributed ideas and references.  They
  295. were very helpful!
  296.  
  297.  
  298.  
  299. --
  300. Stan Reeves
  301. Auburn University, Department of Electrical Engineering, Auburn, AL  36849
  302. INTERNET: sjreeves@eng.auburn.edu
  303.