home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #30 / NN_1992_30.iso / spool / comp / ai / vision / 43 next >
Encoding:
Internet Message Format  |  1992-12-15  |  59.8 KB

  1. Path: sparky!uunet!zaphod.mps.ohio-state.edu!cis.ohio-state.edu!ucbvax!ADS.COM!Vision-List-Request
  2. From: Vision-List-Request@ADS.COM (Vision-List moderator Phil Kahn)
  3. Newsgroups: comp.ai.vision
  4. Subject: VISION-LIST digest 11.43
  5. Message-ID: <9212152214.AA20306@deimos.ads.com>
  6. Date: 15 Dec 92 21:55:20 GMT
  7. Sender: daemon@ucbvax.BERKELEY.EDU
  8. Reply-To: Vision-List@ads.com
  9. Distribution: inet
  10. Organization: The Internet
  11. Lines: 1579
  12. Approved: vision-list@ads.com
  13.  
  14. VISION-LIST Digest    Tue Dec 15 13:55:20 PDT 92     Volume 11 : Issue 43
  15.  
  16.  - ***** The List is moving sites soon: you will be notified ****
  17.  - Send submissions to Vision-List@ADS.COM
  18.  - Vision List Digest available via COMP.AI.VISION newsgroup
  19.  - If you don't have access to COMP.AI.VISION, request list 
  20.    membership to Vision-List-Request@ADS.COM
  21.  - Access Vision List Archives via anonymous ftp to FTP.ADS.COM
  22.  
  23. Today's Topics:
  24.  
  25.  Re: Request for Road Images
  26.  request for Kanji characters
  27.  Non-Rigid Recognition
  28.  Signal to Noise ratio Question
  29.  Plausible pattern recognition (Info needed)
  30.  Help!  Energy Reduction Algorithm for SP
  31.  Optical Music Recognition - Bibliography aviable
  32.  LaboImage 4.0: new X11 version
  33.  Studentships
  34.  Doctoral Program in Philosophy-Psychology-Neuroscience
  35.  Special issue of the machine vision and applications
  36.  AAAI '93 : Call for Papers
  37.  CFP: Geometric Methods in Computer Vision
  38.  Sun Pix (long)
  39.  References on automatic face recognition (long)
  40.  Snakes: summary of responses (long)
  41.  
  42. ----------------------------------------------------------------------
  43.  
  44. Date: Fri, 04 Dec 92 09:20:27 +1100
  45. Subject: Re: Request for Road Images
  46. From: stevea@vast.unsw.edu.au
  47.  
  48. >From Vision-List digest 11.42:
  49.  
  50. I am interested to get sequence of road images (24 bits color) taken
  51. from a mo ving car. Road sign of any type should be visible along the
  52. road.
  53.  
  54.     There are several places you can get this sort of imagery.
  55. Probably the best site though is cicero.cs.umass.edu, which is the home
  56. site of Allen R. Hanson and Edward M. Riseman (of image segmentation
  57. fame). They have a great liking for roadside images in their
  58. experimental results, and there are many samples there. Please note
  59. though, that not all of them have road signs in them. The directories
  60. you probably want most are area_road_scenes and amherst_roads.
  61.     Another site that has a set of images that may be helpful is
  62. isy.liu.se, which has a video sequence taken from inside a car. This
  63. sequence contains one prominent road sign, and possibly one or two more
  64. further away from the camera involving road works.
  65.     I hope this info is useful for you.
  66.  
  67.     cheers
  68.     -steve
  69.  
  70. Steve Avery                   | VLSI and Systems Technology Laboratory,
  71. (PhD type student person)     | School of Computer Science & Engineering,
  72.                               | University of New South Wales,
  73. stevea@vast.unsw.edu.au       | P.O. Box 1, Kensington, 2033, Australia.
  74.  
  75.      "Why have you two eyes and just one mouth?"  -Ryuchi Sakamoto
  76.  
  77. Here is the content of the file README.image_files that is located
  78. in the home directory at this site:
  79.  
  80.  
  81. This directory contains the image library of the VISIONS group at
  82. UMass/Amherst.  Each sub-directory contains a specific sort of image: 
  83. Typically the name of the directory suggests the sort of images in the
  84. directory.
  85.  
  86. There is also an interactive DB of image descriptions available.  Telneting
  87. in as 'visimgdb' to cicero.cs.umass.edu will place you in an interactive
  88. program which will allow you to search a data base of image descriptions.
  89. The data base and the program to access are also available for FTP'ing
  90. in the directory imdb (the data base is vis-imagedb.ilb* and the program
  91. source is in image_db.tar.Z).
  92.  
  93. Most of the image data is in what we call "Universal Plane File
  94. Format" - this is a variation of our LLVS plane file format.  The
  95. directory 'universal_plane_file_format' contains documentation
  96. describing this format as well as code to read these files on several
  97. different platforms.  These plane files always have an extension of
  98. '.plane'.  Plane files should always be transfered in binary mode.
  99.  
  100. If you have questions or can't find a particular sort of image, let us
  101. know by sending E-Mail to me Robert Heller (systems programmer)
  102. <heller@cs.umass.edu> or Val Conti (Lab Manager) <conti@cs.umass.edu>.
  103.  
  104. Jan-15-1991 - by popular request, some of the motion data files have been
  105. collected into tar files and compressed.  Also, all of the files in
  106. 'universal_plane_file_format' have also been collected into a tar file
  107. and compressed.  This has been done to make FTP'ing easier.  RPH.
  108.  
  109. ------------------------------
  110.  
  111. Date: Mon, 14 Dec 92 09:31 JST
  112. From: SHARONE%HADASSAH@VMS.HUJI.AC.IL
  113. Subject: request for Kanji characters
  114.  
  115. A friend of mine needs for his research in Pattern Recognition
  116. a set of contours from KANJI characters.
  117. Email or pointers to a FTP site are welcomed.
  118.  
  119. Thanks in Advance.
  120. Haim Karger
  121. Dept of Nuclear Medecine
  122.  
  123. ------------------------------
  124.  
  125. From: brian@ai.mit.edu (Brian Subirana)
  126. Date: Mon, 14 Dec 92 09:23:35 EST
  127. Subject: Non-Rigid Recognition
  128.  
  129. I am interested in collecting references on non-rigid objects for a
  130. survey that I am writing.  Particularly, but not exclusively, recent
  131. ones on the recognition of non-rigid objects.
  132.  
  133. Pointers are most welcomed,
  134.  
  135. Brian Subirana
  136. MIT AI Lab
  137. Email: brian@ai.mit.edu
  138.  
  139. ------------------------------
  140.  
  141. Date: Sat, 12 Dec 1992 19:19:51 -0500
  142. From: kwon lim <lim@silver.ucs.indiana.edu>
  143. Subject: Signal to Noise ratio Question
  144.  
  145. Could someone tell me if the following phrase make sense ?
  146.  
  147. "A signal to noise ratio of a SAR image is 1 or 2".
  148.  
  149. My question is: Is it possible to assert the signal to noise ratio
  150. of a two dimension signal(say grey scale image) without considering
  151. some noise model.  It seems like there is some way of obtaining the
  152. signal to noise ratio as a measure of how good or bad the signal is.
  153. In other words, my question boils down to the one of how to separate
  154. signal and noise component.  Any ideas or references will be
  155. appreciated.
  156. Thanks in advance.
  157.  
  158. ------------------------------
  159.  
  160. Date: Fri, 4 Dec 1992 02:44:31 GMT
  161. From: yang@dante.cs.uiuc.edu (Der-Shung Yang)
  162. Organization: University of Illinois, Dept. of Comp. Sci., Urbana, IL
  163. Subject: Plausible pattern recognition (Info needed)
  164. Keywords: plausible pattern recognition
  165.  
  166. Hi, I'm doing some research on pattern recognition.  The domain I'm working
  167. on has a special feature that seems interesting (at least to me:-) in general.
  168. I'm looking for any special technique that handles this situation or any
  169. opinions on whether this feature exists in any other domains.
  170.  
  171. I'm trying to develop a system to recognize what a user is drawing on a CAD
  172. (Computer-Aided Design) screen.  This looks like a very general pattern 
  173. recognition problem.  However, in this domain, there's no need for "perfect
  174. recognition."  That is, my system only needs to suggest a fixed number of
  175. objects that look similar to what the user is drawing, possibly ranked by
  176. the "similarity" between the suggested object and the user's input, with the
  177. most similar one output first.  So, a good system should output the target
  178. object as soon as possible, but not necessarily get it right at the first place.
  179. I call this type of problem "plausible pattern recognition," meaning that the 
  180. recognition only needs to make plausible suggestions, not the perfect one.
  181.  
  182. To me, this type of problem seems to reduce the difficulty of recognition
  183. and is more doable than trying to find a "perfect" system.  If you came
  184. across something similar to this type of problem or have some opinions on 
  185. whether "plausible PR" is important theoretically or practically, please let
  186. me know.  Both emails and followups are welcome.  Comments, references, and/or
  187. critics are all greatly appreciated.
  188.  
  189. DerShung Yang    
  190. yang@cs.uiuc.edu 
  191. Beckman Institute
  192. Univ. of Illinois at Urbana-Champaign
  193.  
  194. ------------------------------
  195.  
  196. Date: Fri, 11 Dec 92 19:30:52 EST
  197. From: ge@acsu.buffalo.edu (Wang Ge)
  198. Subject: Help!  Energy Reduction Algorithm for SP
  199.  
  200. Dear Colleagues,
  201.  
  202. I once heard of the energy reduction algorithm
  203. for recovering a signal on an interval from
  204. its known values on other intervals.
  205. Would you please give me some pointers to
  206. recent papers and public software (C is preferred).
  207. Thank you very much!
  208.  
  209. Ge
  210.  
  211. ------------------------------
  212.  
  213. Date: Mon, 14 Dec 1992 13:05:12 GMT
  214. From: roth@sitter.ips.id.ethz.ch (Martin Roth)
  215. Organization: ETH Zurich (Swiss Federal Institute of Technology)
  216. Subject: Optical Music Recognition - Bibliography aviable
  217.  
  218. I compiled a bibliography for Optical Music Recognition (automatic
  219. reading a scanned-in page of music, pattern recognition).
  220.  
  221. PostScript and BibTeX files are aviable via ftp from maggia.ethz.ch
  222. (129.132.17.1), login ftp, directory /pub/roth/omrbib.
  223.  
  224. If you can't use ftp or can't uncompress *.Z files, drop me a mail.
  225.  
  226. Comments, additions about new publications are welcome!
  227.  
  228.       _   Martin Roth                Martin Roth      ETHZ, ips, RZ F16
  229. |\  /|_)  Mail: roth@ips.id.ethz.ch  Sandacker 14   ETHZ, ti, IFW B45.2
  230. | \/ | \  Dipl. Eng. Comp. Sci. ETH  CH-8154 Oberglatt   g 01/256 55 68
  231.           (F-)emails welcome!        Switzerland         p 01/850 32 75
  232.  
  233. ------------------------------
  234.  
  235. Date: Wed, 9 Dec 1992 14:39:01 +0100
  236. From: Alain Jacot-Descombes <jacot@cui.unige.ch>
  237. Subject: LaboImage 4.0: new X11 version
  238.  
  239. [ A new version of LaboImage was just installed in the Vision List Archive
  240. SHAREWARE subdirectory. Thanks to the unige group!
  241.                 phil...        ]
  242.  
  243. LABOIMAGE
  244.  
  245. Original notice
  246.  
  247. March 8th, 1989: LaboImage 2.0 (SunView)
  248. August 24th, 1990: LaboImage 3.0 (SunView)
  249. March 19th, 1991: LaboImage 3.1 (SunView)
  250. December 1st, 1992: LaboImage 4.0 (X11 / OSF Motif)
  251. Computer Science Center, University of Geneva, Switzerland
  252.  
  253. Thank you for your interest in LaboImage!
  254.  
  255.  
  256. GENERAL DESCRIPTION
  257. Labo Image is a window based software for image processing and analysis. It
  258. contains a comprehensive set of operators as well as general utilities. It
  259. is designed to be open-ended; new modules can easily be added. The software,
  260. written in C, is now based on X11 / OSF Motif. The current version has been
  261. developped and tested on a Sun SPARC station, with X11r4 and Motif 1.1.
  262. LaboImage has been extensively used by students as well as researchers from
  263. various domains: computer science (image analysis), medicine, biology, physics.
  264. It is distributed free of charge (source code).
  265.  
  266. STATUS
  267.  
  268. Version 4.0, 1st December 1992:
  269.  
  270.     - hosts: Sun SPARC station;
  271.     - OS: 4.1.1;
  272.     - window system: X11r4 / Motif 1.1;
  273.     - language: C;
  274.     - approx. code size: source 2.5MB (80'000 lines), executable 2.5MB;
  275.     - documentation: interactive help (english)
  276.  
  277. MEANS OF DISTRIBUTIONS
  278.  
  279. LaboImage source code is available by anonymous ftp at:
  280. 1) ftp.ads.com, login name anonymous, in pub/VISION-LIST-ARCHIVE/SHAREWARE.
  281. 2) peipa.essex.ac.uk, login name anonymous, in ipa/proc-src.
  282. If you have no access to ftp, please contact the author.
  283. If you wish to be kept current with update, error reports, ..., please send
  284. us a mail with your full name, regular and electronic addresses.
  285.  
  286. DISTRIBUTION POLICY
  287.  
  288. In essence:
  289.     - this is a non-profit software, but it is our property and the copyright
  290.       notice must appear;
  291.     - the reference to cite in case of published results obtained with Labo
  292.       Image is: "A. Jacot-Descombes, M. Rupp, T. Pun: `LaboImage: A portable
  293.       window-based environment for research in image processing and analysis',
  294.       SPIE Symposium on Electronic Imaging Science and Technology, Image
  295.       Processing: Implementation and Systems, San Jose, California, USA,
  296.       Feb. 9-14, 1992.
  297.     - no responsibility is assumed;
  298.     - not to be used for profit making purposes;
  299.     - bugs will usually be corrected since we use the software intensively ;
  300.     - modifications should be communicated to us, with (normally) allowance
  301.       for redistribution.
  302.  
  303. PAYMENT
  304.  
  305. Athough LaboImage has undergone many upgrades and suffered in the hands of 
  306. many users, the current version is certainly not bug free. For the time being,
  307. we require NO prepayment, return postage or anything. 
  308. We may however change this policy in the future, and ask for nominal fees to
  309. cover material expenditures. HOWEVER, if you are satisfied with the product,
  310. why not send us some "souvenir" (post card, drink, etc.)) from your country...??!!
  311.  
  312. CAPABILITIES
  313.  
  314. Labo Image is an interactive software, whose interface is menu, mouse and 
  315. window based. Its main features are:
  316.     - input-output: LaboImage format file, SUN raster file; postscript;
  317.     - display: mono, RGB, dithering, color table editor;
  318.     - preprocessing: filters (median, high pass, low pass: hamming, gauss, etc),
  319.         background subtraction, histogram equalization;
  320.     - processing: thresholding, Fourier transforms, edge extractions: various
  321.         operators, ridge-riding, zero-crossing; segmentation into regions,
  322.         binary and gray tone mathematical morphology;
  323.     - measures: histograms, image statistics, power, region outlining, 
  324.         object counting;
  325.     - auxiliary: conversions, arithmetic & logical operations, noise addition,
  326.         image generation, magnification, convolution/correlation with
  327.         masks, image; padding;
  328.     - elementary interactive operations: region outlining, statistics and
  329.         histogram computation, etc.;
  330.     - special tools: 
  331.         - modify image at pixel level interactively,
  332.         - one-dimensional gel analysis,
  333.         - expert system for image segmentation (not implemented in LaboImage 4.0);
  334.     - macros definitions, save and replay (not implemented in LaboImage 4.0);
  335.     - on line documentation.
  336.  
  337. IMAGE FORMATS
  338.  
  339. Own format: descriptor file + data file (binary, byte, int, float, complex;
  340. mono or RGB). Supports also Sun raster format. Conversions to various other 
  341. formats.
  342. Data structures:
  343.     - iconic (pixel-based), with each image having its own parameter list;
  344.     - vectors (histograms, look-up tables);
  345.  
  346. MISCELLANEOUS REMARKS (answers to commonly asked questions)
  347.  
  348.  
  349.  - FILE FORMAT: we decided to go for: 1) a machine independant format; 2) a
  350.    simple, data (ie. signal) oriented format. At the beginning of the
  351.    development (summer 1987), we were not aware of any image format used by
  352.    the whole community. There seems now to be some progress on the matter
  353.    (TIFF, etc.), but they are still not that widely used in the community.
  354.    Also, due to development priorities we consider conversion routines a more
  355.    secondary issue as long as our format is simple. 
  356.    In addition, the menu "ACQUISITION=>free byte format" is fairly versatile.
  357.    Also, the SUN raster images can now be read into LaboImage and likewise
  358.    images on system may be stored in SUN raster format.
  359.    However.. we would welcome any software contribution!
  360.  
  361.  - 3D IMAGE PROCESSING: nothing special for such images.
  362.  
  363.  - ON LINE HELP: available.
  364.  
  365. ACKNOWLEDGEMENTS
  366.  
  367. More than 10 people have so far participated in this project, and their
  368. contribution is gratefully acknowledged.
  369. Staff: Pierre-Yves Burgi, Claudia Coiteux-Rosu, Ziping Hu, Alain Jacot-
  370. Descombes, Rene Lutz, Christian Pellegrini, Thierry Pun, Marianne Logean-
  371. Rupp, Krassimir Todorov.
  372. Students: Anne Bobillier, Alain Brunner, Markus Buchi, Christian Girard,
  373. Rene Perrier, Vrinda Shukla. 
  374. Amongst them, A. Jacot-Descombes is responsible for general design issues, 
  375. and is the keystone for implementation; R. Lutz is responsible for display
  376. manipulations (Color Table Editor,etc.); T. Pun is responsible for the 
  377. original layout and general design issues;
  378. V. Shukla is responsible for the upgrade from LaboImage 2.0 to LaboImage 3.0;
  379. Marianne Logean-Rupp is responsible for the portability of LaboImage to X11
  380. (LaboImage 4.0).
  381. We are particularly grateful to Drs. D. F. Hochstrasser and O. Ratib, Digital
  382. Imaging Unit, Computer Center, University Hospital of Geneva, for their
  383. extended support. LaboImage 4.0 could not have been without their help.
  384.  
  385. CONTACTS
  386.  
  387. Particular problems will be redirected to relevant persons, but we prefer
  388. that all communications be made to the same address:
  389. e-mail: "pun@uni2a.unige.ch" or pun@cgeuge51.bitnet (if this fails,
  390.     "pun@cui.unige.ch").
  391. tel.: +(4122) 705 76 27 (T. Pun), 705 76 30 (A. Jacot-Descombes).
  392. fax:  +(4122) 320 29 27.
  393. postal address: Thierry Pun
  394.                 LaboImage
  395.                 Computing Science Center, University of Geneva
  396.                 24, rue du General-Dufour
  397.                 CH - 1211 Geneva 4
  398.         SWITZERLAND
  399.  
  400. ------------------------------
  401.  
  402. Date: Fri, 4 Dec 92 14:22:34 GMT
  403. From: M.Petrou@ee.surrey.ac.uk
  404. Subject: studentships
  405.  
  406.                           UNIVERSITY OF SURREY 
  407.  
  408.           Research Studentships - Image Processing/Computer Vision 
  409.  
  410. Three research studentships are available from 15 January 1993 to carry out PhD research 
  411. in the Vision Speech and Signal
  412. Processing Research Group of  the Department of Electronic  and Electrical 
  413. Engineering with extensive computing resources including SUN sparc stations
  414. as well as speciliased image processing facilities.  
  415.  
  416. The studentships are in the following areas:
  417.          - 3D object recognition with emphasis on active vision 
  418.          - Image processing for remote sensing to study contextual multispectral
  419.              image classification.
  420.          - Automatic inspection of colour texture surfaces.
  421.  
  422. Succesfull applicants will have a very good degree in Computer
  423. Science, Physics, Electrical Engineering or Mathematics with
  424. dedication to and apptitude for research.  The value of the
  425. studentships will be set at or above the SERC rates depending on the
  426. circumstances.
  427.  
  428. Further information and application forms may be obtained from Professor 
  429. J Kittler on +44 483 509294, email: J.Kittler@ee.surrey.ac.uk,  or at
  430. the  Department of Electronic and Electrical Engineering,
  431. University of Surrey, Guildford, Surrey
  432. GU2 5XH United Kingdom.  
  433.  
  434. ------------------------------
  435.  
  436. Date: Tue, 15 Dec 92 16:43:25 GMT
  437. From: Andy Clark <andycl@syma.sussex.ac.uk>
  438. Subject: Doctoral Program in Philosophy-Psychology-Neuroscience
  439.  
  440.        First Announcement of a New Doctoral Programme in
  441.  
  442.              PHILOSOPHY-NEUROSCIENCE-PSYCHOLOGY
  443.                              at
  444.              Washington University in St. Louis
  445.  
  446. The Philosophy-Neuroscience-Psychology (PNP) program
  447. offers a unique opportunity to combine advanced
  448. philosophical studies with in-depth work in Neuroscience
  449. or Psychology. In addition to meeting the usual requirements for
  450. a Doctorate in Philosophy, students will spend one year working in
  451. Neuroscience or Psychology. The Neuroscience option will draw
  452. on the resources of the Washington University
  453. School of Medicine which is an internationally acknowledged
  454. center of excellence in neuroscientific research. The
  455. initiative will also employ several new PNP related Philosophy faculty
  456. and post-doctoral fellows.
  457.  
  458.  
  459. Students admitted to the PNP program will embark
  460. upon a five-year course of study designed to fulfill all the
  461. requirements for the Ph.D. in philosophy, including an
  462. academic year studying neuroscience at Washington
  463. University's School of Medicine or psychology in the
  464. Department of Psychology.  Finally, each PNP student will
  465. write a dissertation jointly directed by a philosopher and a
  466. faculty member from either the medical school or the
  467. psychology department.
  468.  
  469. THE FACULTY
  470.  
  471. Roger F. Gibson, Ph.D., Missouri, Professor and Chair:
  472.   Philosophy of Language, Epistemology, Quine
  473.  
  474. Robert B. Barrett, Ph.D., Johns Hopkins, Professor:
  475.   Pragmatism, Renaissance Science, Philosophy of Social
  476.   Science, Analytic Philosophy.
  477.  
  478. Andy Clark, Ph.D., Stirling, Visiting Professor (1993-6) and
  479. Acting Director of PNP:
  480.   Philosophy of Cognitive Science, Philosophy of Mind,
  481.   Philosophy of Language, Connectionism.
  482.  
  483. J. Claude Evans, Ph.D., SUNY-Stony Brook, Associate Pro-
  484.   fessor:  Modern Philosophy, Contemporary Continental
  485.   Philosophy, Phenomenology, Analytic Philosophy, Social and
  486.   Political Theory.
  487.  
  488. Marilyn A. Friedman, Ph.D., Western Ontario, Associate
  489.   Professor:  Ethics, Social Philosophy, Feminist Theory.
  490.  
  491. William H. Gass, Ph.D., Cornell, Distinguished University
  492.   Professor of the Humanities:  Philosophy of Literature,
  493.   Photography, Architecture.
  494.  
  495. Lucian W. Krukowski, Ph.D., Washington University, Pro-
  496.   fessor:  20th Century Aesthetics, Philosophy of Art,
  497.   18th and 19th Century Philosophy, Kant, Hegel,
  498.   Schopenhauer.
  499.  
  500. Josefa Toribio Mateas, Ph.D., Complutense University,
  501.   Assistant Professor:  Philosophy of Language, Philosophy
  502.   of Mind.
  503.  
  504. Larry May, Ph.D., New School for Social Research, Pro-
  505.   fessor:  Social and Political Philosophy, Philosophy of
  506.   Law, Moral and Legal Responsibility.
  507.  
  508. Stanley L. Paulson, Ph.D., Wisconsin, J.D., Harvard, Pro-
  509.   fessor:  Philosophy of Law.
  510.  
  511. Mark Rollins, Ph.D., Columbia, Assistant Professor:
  512.   Philosophy of Mind, Epistemology, Philosophy of Science,
  513.   Neuroscience.
  514.  
  515. Jerome P. Schiller, Ph.D., Harvard, Professor:  Ancient
  516.   Philosophy, Plato, Aristotle.
  517.  
  518. Joyce Trebilcot, Ph.D., California at Santa Barbara, Associ-
  519.   ate Professor:  Feminist Philosophy.
  520.  
  521. Joseph S. Ullian, Ph.D., Harvard, Professor:  Logic, Philos-
  522.   ophy of Mathematics, Philosophy of Language.
  523.  
  524. Richard A. Watson, Ph.D., Iowa, Professor:  Modern Philoso-
  525.   phy, Descartes, Historical Sciences.
  526.  
  527. Carl P. Wellman, Ph.D., Harvard, Hortense and Tobias Lewin
  528.   Professor in the Humanities:  Ethics, Philosophy of Law,
  529.   Legal and Moral Rights.
  530.  
  531. EMERITI
  532.  
  533. Richard H. Popkin, Ph.D., Columbia:  History of Ideas,
  534.   Jewish Intellectual History.
  535.  
  536. Alfred J. Stenner, Ph.D., Michigan State:  Philosophy of
  537.   Science, Epistemology, Philosophy of Language.
  538.  
  539. FINANCIAL SUPPORT
  540.  
  541. Students admitted to the Philosophy-Neuroscience-Psychology
  542. (PNP) program are eligible for five years of full financial
  543. support at competitive rates in the presence of satisfactory
  544. academic progress.
  545.  
  546. APPLICATIONS
  547.  
  548. Application for admission to the Graduate School should be
  549. made to:
  550.                     Chair, Graduate Admissions
  551.                     Department of Philosophy
  552.                     Washington University
  553.                     Campus Box 1073
  554.                     One Brookings Drive
  555.                     St. Louis, MO 63130-4899
  556.  
  557. Washington University encourages and gives full
  558. consideration to all applicants for admission and financial
  559. aid without regard to race, color, national origin,
  560. handicap, sex, or religious creed.  Services for students
  561. with hearing, visual, orthopedic, learning, or other
  562. disabilities are coordinated through the office of the
  563. Assistant Dean for Special Services.
  564.  
  565. ------------------------------
  566.  
  567. Date: Tue, 15 Dec 1992 17:59:45 GMT
  568. From: sethi@usha.cs.wayne.edu (Ishwar K. Sethi)
  569. Organization: Wayne State University, Detroit
  570. Subject: special issue of the machine vision and applications
  571. Keywords: machine vision, neural networks
  572.  
  573. CALL FOR PAPERS
  574.  
  575. Special Issue of the Machine Vision and Applications on Neural
  576. Networks for Machine Vision
  577.  
  578. The developments in the artificial neural network technology in
  579. recent years have provided machine vision researchers and developers
  580. with new tools and techniques to build machine vision algorithms and
  581. systems that exhibit human-like visual perception capabilities.
  582. The goal of the special issue is to capture these developments in
  583. neural network theory and its applications to machine vision and to
  584. provide the readers with an overview of the state-of-the-art. To meet
  585. this goal, papers are solicited for the special issue which is scheduled
  586. to appear in early 1995. Possible topics for the special issue, but not
  587. limited to, include the followings:
  588.  
  589. *  Learning and Self-Organization for Segmentation, Feature Extraction,
  590.    and Recognition.
  591. *  Motion Detection, Tracking, and Characterization using Neural Networks.
  592. *  Hardware Implementations including Smart Vision Chips.
  593. *  Neural Networks for Multisensory Processing.
  594. *  Automated Visual Monitoring and Inspection using Neural Networks.
  595. *  Reverse Engineering for Machine Vision using Neural Networks.
  596.  
  597. Papers emphasizing technical details and theoretical background of machine
  598. vision systems having strong neural network components and currently in use
  599. are especially welcome.
  600.  
  601. The papers should be prepared following the Machine Vision and Applications
  602. guidelines. All papers will be reviewed according to the guidelines of the
  603. Machine Vision and Applications . Please submit four copies of your manuscript
  604. to:
  605.  
  606.   Professor Ishwar K. Sethi
  607.   Department of Computer Science
  608.   Wayne State University
  609.   Detroit, MI 48202
  610.   U.S.A.
  611.  
  612. The deadline for submission is July 31, 1993. For enquiries, send E-mail to
  613. sethi@cs.wayne.edu or fax to 313-577-6868.
  614.  
  615. ------------------------------
  616.  
  617. Date: Mon, 7 Dec 92 14:37:42 -0500
  618. From: carlson@titanic.cs.umass.edu (Adam Carlson)
  619. Subject: AAAI '93 : Call for Papers
  620.  
  621. Call for Papers
  622. AAAI-93
  623.  
  624. AAAI-93 is the eleventh national conference. The purpose 
  625. of the conference is to promote research in artificial 
  626. intelligence (AI) and scientific interchange among AI 
  627. researchers and practitioners.
  628.     Papers may represent significant contributions to all 
  629. aspects of AI: 
  630. a)   the principles underlying cognition, perception, and 
  631. action in humans and machines; 
  632. b)   the design, application, and evaluation of AI 
  633. algorithms and intelligent systems; and 
  634. c)   the analysis of tasks and domains in which 
  635. intelligent systems perform.
  636.     In recognition of the wide range of methodologies and 
  637. research activities legitimately associated with AI, we 
  638. invite authors to submit papers describing both 
  639. experimental and theoretical results from all stages of 
  640. AI research.  In particular, we encourage submission of 
  641. papers that present promising research directions by 
  642. describing innovative concepts, techniques, perspectives, 
  643. or observations that are not yet supported by mature 
  644. results.  To be accepted, such submissions must include 
  645. substantial analysis of the ideas, the technology needed 
  646. to realize them, and their potential impact.  In addition, 
  647. because of the essential interdisciplinary nature of AI 
  648. and the need to maintain effective communication across 
  649. sub-specialties, we encourage authors to position and 
  650. motivate their work in the larger context of the general 
  651. AI community. While papers concerned with applications 
  652. of AI are invited, those that describe working 
  653. commercial systems should be submitted to the IAAI 
  654. conference.
  655.  
  656.  
  657. Requirements for Submission
  658.  
  659. Authors must submit six (6) complete printed copies of 
  660. their papers to the AAAI office by January 13, 1993.  
  661. Papers received after that date will be returned 
  662. unopened.  Notification of receipt will be mailed to the 
  663. first author (or designated author) soon after receipt.  
  664. All inquiries regarding lost papers must be made by 
  665. January 27, 1993.  Authors are also requested to send 
  666. their paperUs title page in an electronic mail message to 
  667. abstract@aaai.org by January 13, 1993. Notification of 
  668. acceptance or rejection of submitted papers will be 
  669. mailed to the first author (or designated author) by 
  670. March 3, 1993.  Camera-ready copy of accepted papers 
  671. will be due about one month later.
  672.  
  673. Paper Format for Review
  674. All six (6) copies of a submitted paper must be clearly 
  675. legible. Neither computer files nor fax submissions are 
  676. acceptable.  Submissions must be printed on 8 1/2" x 11" 
  677. or A4 paper using 12 point type (10 characters per inch 
  678. for typewriters).  Each page must have a maximum of 38 
  679. lines and an average of 75 characters per line 
  680. (corresponding to the LaTeX article-style, 12 point).  
  681. Double-sided printing is strongly encouraged. 
  682.  
  683. Length
  684. The body of submitted papers must be at most 11 pages, 
  685. including figures, tables, and diagrams, but excluding the 
  686. title page and bibliography.  Papers exceeding the 
  687. specified length and formatting requirements are subject 
  688. to rejection without review.
  689.  
  690. Title page
  691. Each copy of the paper must have a title page (separate 
  692. from the body of the paper) containing the title of the 
  693. paper, the names and addresses of all authors, a short 
  694. (less than 200 word) abstract, and a descriptive content 
  695. area or areas. The title page sent via electronic mail to 
  696. the AAAI office must be in plain ASCII text with each 
  697. section of the title page preceded by the name of that 
  698. section as follows:
  699. title: <title>
  700. author: <name of first author>
  701. address: <address of first author> author: <name of last 
  702. author>
  703. address: <address of last author>
  704. abstract: <abstract>
  705. content areas: <first area>, I, 
  706. <last area>
  707.     To facilitate the reviewing process, authors are 
  708. requested to select appropriate content areas from the 
  709. list below. Authors are invited to add additional content 
  710. area descriptors to their title page as needed.
  711.    Artificial Life, Automated Reasoning, Behavior-Based 
  712. Control, Belief Revision, Case-Based Reasoning, 
  713. Cognitive Modeling, Common Sense Reasoning, 
  714. Communication and Cooperation, Constraint-Based 
  715. Reasoning, Computer-Aided Education, Connectionist 
  716. Models, Corpus-Based Language Analysis, Deduction, 
  717. Diagnosis, Discourse Analysis, Distributed Problem 
  718. Solving, Expert Systems, Geometrical Reasoning, 
  719. Information Extraction, Knowledge Acquisition, 
  720. Knowledge Representation, Knowledge Sharing 
  721. Technology, Large Scale Knowledge Engineering, 
  722. Learning/Adaptation, Machine Learning, Machine 
  723. Translation, Mathematical Foundations, Multi-Agent 
  724. Planning, Natural Language Processing, Neural Networks, 
  725. Nonmonotonic Reasoning, Perception, Planning, 
  726. Probabilistic Reasoning, Qualitative Reasoning, 
  727. Reasoning about Action, Reasoning about Physical 
  728. Systems, Reactivity, Robot Navigation, Robotics, Rule-
  729. Based Reasoning, Scheduling, Search, Sensor 
  730. Interpretation, Sensory Fusion/Fission, Simulation, 
  731. Situated Cognition, Spatial Reasoning, Speech 
  732. Recognition, System Architectures, Temporal Reasoning, 
  733. Terminological Reasoning, Theorem Proving, Truth 
  734. Maintenance, User Interfaces, Virtual Reality, Vision, 3-
  735. D Model Acquisition.
  736.  
  737.  
  738. Submissions to Multiple Conferences
  739.  
  740. Papers that are being submitted to other conferences, 
  741. whether verbatim or in essence, must state this fact on 
  742. the title page. If a paper appears at another conference 
  743. (with the exception of specialized workshops), it must 
  744. be withdrawn from AAAI-93. Papers that violate these 
  745. requirements are subject to rejection without review.
  746.  
  747.  
  748. Review Criteria
  749.  
  750. Each paper will be carefully reviewed by experts 
  751. specializing in the content areas on the paperUs title 
  752. page.  Questions that will appear on the review form have 
  753. been reproduced below.  Authors are  advised to bear 
  754. these questions in mind while writing their papers:
  755. Significance
  756. How important is the work reported?  Does it attack an 
  757. important/difficult problem or a peripheral/simple one?  
  758. Does the approach offered advance the state of the art?
  759.  
  760. Originality
  761. Has this or similar work been previously reported?  Are 
  762. the problems and approaches completely new?  Is this a 
  763. novel combination of familiar techniques?  Does the 
  764. paper point out differences from related research?  Is it 
  765. re-inventing the wheel using new terminology?   
  766.  
  767. Quality
  768. Is the paper technically sound?  Does it carefully 
  769. evaluate the strengths and limitations of its 
  770. contribution?  How are its claims backed up?
  771.  
  772. Clarity
  773. Is the paper clearly written?  Does it motivate the 
  774. research?  Does it describe the inputs, outputs and basic 
  775. algorithms employed?  Does the paper describe previous 
  776. work?  Are the results described and evaluated? Is the 
  777. paper organized in a logical fashion?
  778.  
  779. Publication
  780. Accepted papers will be allocated six (6) pages in the 
  781. conference proceedings.  Up to two (2) additional pages 
  782. may be used at a cost to the authors of $250 per page.  
  783. Papers exceeding eight (8) pages and those violating the 
  784. instructions to authors will not be included in the 
  785. proceedings.
  786.  
  787. Copyright
  788. Authors will be required to transfer copyright of their 
  789. paper to AAAI.
  790.  
  791.  
  792. Please send papers and conference registration inquiries 
  793. to:
  794.  
  795. AAAI-93
  796. American Association
  797. for Artificial Intelligence
  798. 445 Burgess Drive
  799. Menlo Park, CA 94025-3496
  800.  
  801. Registration and call clarification inquiries (ONLY) may 
  802. be sent to the CSNET address: NCAI@aaai.org.  Please 
  803. send program suggestions and inquiries to:
  804.  
  805. Richard Fikes
  806. Knowledge Systems Laboratory
  807. Stanford University
  808. 701 Welch Road, Building C
  809. Palo Alto, CA 94304
  810. fikes@ksl.stanford.edu
  811.  
  812. Wendy Lehnert
  813. Department of Computer Science
  814. University of Massachusetts
  815. Amherst, MA 01003
  816. lehnert@cs.umass.edu
  817.  
  818. ------------------------------
  819.  
  820. Date: Thu, 10 Dec 92 16:51:41 -0500
  821. From: "Baba Vemuri" <vemuri@scuba.cis.ufl.edu>
  822. Status: CFP: Geometric Methods in Computer Vision
  823.  
  824.             CALL FOR PAPERS
  825.  
  826.         Geometric Methods in Computer Vision
  827.     (Part of SPIE's Annual International Symposium on Optoelectronic
  828.     Applied Science and Engineering; 12-13th July 1993;
  829.             San Diego, California,
  830.     San Diego Convention Center, Marriott Hotel and Marina)
  831.  
  832.       Conference Chair: Baba C. Vemuri
  833.                Dept. of Computer & Information Sciences, CSE326
  834.                University of Florida, Gainesville, FL. 32611
  835.  
  836. Co-chairs:
  837. Ruud M. Bolle, IBM T. J. Watson Research Center, Yorktown Heights, NY.
  838. Demetri Terzopoulos, Department of Computer Science, Univ. of Toronto, Canada.
  839. Richard Szeliski, Cambridge Research Labs, DEC, Cambridge, MA.
  840. Gabriel Taubin, IBM T. J. Watson Research Center, Yorktown Heights, NY.
  841. Alan Yuille, Division of Applied Sciences, Harvard University, MA.
  842. Ramesh C. Jain, Dept. of EECS, Univ. of Michigan, Ann Arbor, MI.
  843.  
  844.             Key Note Address:
  845.     
  846.         Professor Dr. Jan Koenderink
  847.         Physics Lab, Department of Medical and Physiological Physics
  848.         University of Utrecht, Netherlands.
  849.  
  850.  
  851.  
  852. The theme of this conference is application of geometric methods in
  853. low-level vision tasks, specifically for shape and motion estimation.
  854. Over the past few years, there has been increased interest in the use
  855. of differential geometry, computational physics and probability theory
  856. for various vision tasks.  Papers describing novel contributions in all
  857. aspects of geometric and probabilistic methods in vision are
  858. solicited, with particular emphasis on:
  859.  
  860. Differential Geometric Methods for Shape Representation.
  861.  
  862. Energy-based Methods for Shape Estimation.
  863.  
  864. Probabilistic Techniques for Shape Estimation and Representation.
  865.  
  866. Geometry and Shape Recognition.
  867.  
  868.  
  869.             New    Deadlines
  870.  
  871. Abstract Due Date:  DECEMBER 28, 1992
  872.  
  873. Manuscript Due Date: April 19, 1993
  874. (Proceedings will be made available at the conference)
  875.  
  876. Please FAX or airmail FOUR copies, or email ONE copy of your abstract 
  877. by 14 DECEMBER 1992 to:
  878.  
  879. SPIE, San Diego '93
  880. P.O. Box 10, Bellingham, WA 98227-0010
  881. Shipping Address: 1000 20th Street, Bellingham, WA 98225
  882. Telephone: 206/676-3290
  883. FAX: 206/647-1445
  884. email: abstracts@mom.spie.org (ASCII Files only)
  885. CompuServe 71630,2177
  886.  
  887. Your submission should include the title of your abstract, the authors' names,
  888. affiliations, mailing addresses, phone/FAX numbers, and email addresses, as well
  889. as the abstract text of approximately 500 words. Please be sure to indicate that
  890. your abstract is intended for the conference on Geometric Methods in Computer
  891. Vision II (Vemuri).
  892.  
  893. Applicants will be notified of acceptance by March 1993. A manuscript due
  894. date of 19 April 1993 must be strictly observed since the Proceedings of this
  895. conference will be published before the meeting and available on site.
  896.  
  897. Note: Late abstract submissions may be considered, subject to program
  898. time availability and chairs approval.
  899.  
  900. ------------------------------
  901.  
  902. From: Mark Evans <mre1@it-research-institute.brighton.ac.uk>
  903. Date: Tue, 8 Dec 92 18:08:00 GMT
  904. Subject: Sun Pix
  905.  
  906. I have summarised some reponses I got about Sun's video pix frame grabber. It
  907. might be of interest to others.
  908.  
  909. Regards,
  910.  
  911. Mark
  912.  
  913. # Mark Evans               mre1@itri.bton.ac.uk #
  914. #                          itri!mre1            #
  915. # ITRI,                                         #
  916. # University of Brighton,                       #
  917. # Lewes Road,                                   #
  918. # BRIGHTON,                                     #
  919. # E. Sussex,                                    #
  920. # BN2 4AT.                                      #
  921. # Tel: +44 273 642904/642900                    #
  922. # Fax: +44 273 606653                           #
  923.  
  924. >Does anyone have any experience of using the VideoPix card
  925. >by Sun ? It allows you to capture images and display them
  926. >on a sparc workstation. Does anyone have a recommendation
  927. >for a frame grabber for a sparc costing 500-700 pounds ?
  928.  
  929. Thank you for everyone that supplied me with information. Special thanks to
  930. MS and EM of Sun Microsystems (both worked on the videopix card project) for
  931. all the their help.
  932.  
  933. *** Users Comments ***
  934.  
  935. 1. I have used the videopix here in the USA.  It seems to work OK for me.  I
  936. don't know how high a video quality that you need but the videopix only has
  937. 7-bit analogue to digital converters.  I don't know of anything else in the
  938. same price range but I haven't looked for about 1.5 years.
  939.  
  940. 2. We have three or four VideoPix boards and are very happy with them.
  941. They're not full-motion though, so if this is a requirement for you then the
  942. VideoPix may not be what you want.
  943.  
  944. The boards can capture and display about 15fps of greyscale video in a small
  945. window.  As you increase the size of the window (and hence the amount of data
  946. which needs to be blitted through the window system) and add color, the
  947. capture and display rate drops and eventually bottoms out at about 5fps for a
  948. fairly large color window.
  949.  
  950. The board comes with a nice software library and a GUI interface, and seems
  951. to be a well thought-out product.  We've had no complaints at all.
  952.  
  953. 3. I've used the Sun VideoPix card. When it comes to grabbing single frames
  954. (motionless) it's OK. I use the PAL-format, which gives about 720x575
  955. pixels.  NTSC gives, I think, 640x480.  Also, it stores 7 bits of luminosity
  956. per pixel, and 2*7 bits of chrominance per every four pixels. So, the
  957. color-information appears a bit slower than the intensity. Maybe this is only
  958. natural. The eye might be better at intensity differences than those of
  959. color.
  960.  
  961. To grab a movie in realtime is harder. I've managed to grab about 6 frames/s,
  962. on a Sparc 2, each frame having a resolution of 320x240 full color.  Full
  963. frame-rate would be 25-30 frames/s.
  964.  
  965. 4. I have messed around with the videopix card quite a bit, and it seems to
  966. be a viable tools for conferencing, image-oriented mail and multimedia, etc,
  967. but does not produce the quality required for high-end image processing
  968. applications.
  969.  
  970. 5. We have one of these boards here at ANU, but we just got the thing so we
  971. don't have much experience with it so far. It can display about a frame a
  972. second from live video or TV in color, but the quality isn't as good as I
  973. expected. That may be a result of the poor quality signal from the TV though.
  974. It can do a few frames a second in black and white.  The frame grabs work
  975. pretty good, but it is hard to get the exact frame that you want.
  976.  
  977. *** Technical Specification ***
  978.  
  979. 1. Colour (8 and 24 bit)
  980.  
  981. Yes.
  982.  
  983. 2. Greyscale (256 levels)
  984.  
  985. Yes.
  986.  
  987. 3. Monochrome
  988.  
  989. Yes. 1bit per pixel file saves are available. All functions work on 1bit
  990. frame buffers, also.
  991.  
  992. 4. A resolution of 512x512 or better
  993.  
  994. Square pixel PAL resolution is what you get from the VFCtool software, but we
  995. also have an API that lets you get the full non-square data. So you can
  996. customize your software to control VideoPix directly. The API isn't a
  997. specific tool per say, but a list of defined driver calls.
  998.  
  999. 5. Video input
  1000.  
  1001. 2 Composite (NTSC or PAL), 1 S-Video (NTSC or PAL) all software selectable.
  1002.  
  1003. 6. Continuous Frame Gabbing - (what is the max frames grabbed per sec ?)
  1004.  
  1005. Ah. This depends on which mode (B&W or Colour) and what display resolution
  1006. you selected from the software. Basically it's:
  1007.  
  1008. mode            resolution (displayed)          FPS
  1009.  
  1010. Colour          Full (640x480 NTSC)              1
  1011. Colour          Half (320x240 NTSC)              ~3.5
  1012. Colour          Quarter (160x120 NTSC)           ~5
  1013.  
  1014. B&W             Full (640x480 NTSC)              ~3.5
  1015. B&W             Half (320x240 NTSC)              ~6.5
  1016. B&W             Quarter (160x120 NTSC)           ~8.5
  1017.  
  1018. The fastest library routine that is supplied might be able to grab 15 fields
  1019. per second, NTSC, in raw YUV format.
  1020.  
  1021. *** Technical Explanation ***
  1022.  
  1023. The ADC's are a full 8 bits, But the SAA9051 Multi-Standard Decoder operates
  1024. only on 7 bits. The output of the decoder is 4:1:1 digital YUV data that is
  1025. stored in the boards FRAM. There is a full frame of FRAM on the board for
  1026. either NTSC or PAL.
  1027.  
  1028. Basicaly the board looks like this:
  1029.  
  1030. input conn -> SWITCH-AGC-FILTER-ADC -> SAA9051 decoder-> FRAM ->SBUS
  1031. input conn -|                             |                      |
  1032. input conn -|                              --------I2C UART -----
  1033.  
  1034.  
  1035. What happens along this decode path is this:
  1036.  
  1037. 1. The video source is supplied via the input connectors. Which input is
  1038. selected via the software. Commands are send through I2C bus to tell the
  1039. decoder which input has been requested.
  1040.  
  1041. 2. Now the video has been selected, the ADC now gain adjusts the video levels
  1042. and  low pass filters the signal to trap out un-wanted noise above 6.5Mhz.
  1043. Then the video is buffered and sent into the ADC. The ADC digitizes the CVBS
  1044. signal with 8 bit resolution. The data is then sent to the decoder.
  1045.  
  1046. 3. Now the data is taken into the SAA9051 decoder. Although the part has an
  1047. 8bit hardware interface to the input ADC's, the internal resolution that the
  1048. chip operates at is only 7bits in the (y) luminance path. The color
  1049. information (c) is decoded and sub-sampled and then outputed with the (y)
  1050. information to produces a 4:1:1 digital YUV output data stream.
  1051.  
  1052. 4. The information is now stored in the on-board 1 Meg FRAM (Field RAM)
  1053. buffer at video speed. FRAM is a memory specially designed for use in video
  1054. frame store applications. It was first used in televisions that had
  1055. Picture-In-Picture (PIP) processors. It now can be found in most high end
  1056. VCR's being used for time base correction applications or in digitizers like
  1057. VideoPix. FRAM looks like a big FIFO, and is in fact read like a FIFO. But
  1058. it's storage cell can hold an entire field of PAL (or NTSC) video. Now that
  1059. this information is held in the FRAM, The application can now access it from
  1060. the SBUS. This is where the speed bottleneck is.
  1061.  
  1062. 5. SBUS. Once the data is requested, it is sent in it's raw YUV data form
  1063. into the host memory via VideoPix's slave interface. The data transfer speeds
  1064. are fast, but not fast enough for real-time transfers (30FPS). This amount of
  1065. data is in the order of ~20 MBytes/sec which requires an expensive (at the
  1066. time) DMA interface. This also swamps SBUS disallowing of transactions to
  1067. occur from other SBUS cards. Since SBUS is considerd a general purpose I/O
  1068. bus and not a high speed video bus, it would be wrong for any SBUS card to
  1069. take more than 50% of the bandwith at anytime.
  1070.  
  1071. The net results is that we have an upper limit as to how fast we can transfer
  1072. the data from the card to the host ram.
  1073.  
  1074. 6. Once the data is in the host, the software does several things to it. The
  1075. data arrives as 4:1:1 coded YUV non-square (4:3 aspect) pixels. In order to
  1076. display this on the console, the data is transcoded to RGB and dithered if
  1077. the framebuffer is only 8bits. It is then sub-sampled to render a square
  1078. image. This basicaly means dropping every fith pixel.
  1079.  
  1080. 7. The data is now bit-blited to the display for you to enjoy!.
  1081.  
  1082. *** My thoughts ***
  1083.  
  1084. I will be buying one. If your main frame grabber specification is
  1085. real time frame grabbing you will have to purchase a different, more
  1086. expensive frame grabber. For the price it seems good value for money.
  1087.  
  1088. I have two sample jpeg images (90%) grabbed from TV using the videopix card
  1089. if anyone is interested.
  1090.  
  1091. Thank you again for everyone that sent info to me. 
  1092.  
  1093. Regards,
  1094. Mark
  1095.  
  1096. ------------------------------
  1097.  
  1098. Date: Wed, 9 Dec 92 15:28:07 EST
  1099. From: bedard@robocop.NYU.EDU (Patricia Bedard)
  1100. Subject: References on automatic face recognition
  1101.  
  1102. Following my previous request for references on automatic face recognition,
  1103. many people expressed an interest in the compilation, so I thought it might
  1104. be useful to post it to the vision list.
  1105.  
  1106. Here is the list of references that I have compiled.  If you notice that
  1107. some references that you know about are missing, please let me know.
  1108. Cheers,
  1109.  
  1110. Patricia
  1111.  
  1112. Patricia J. Bedard       (bedard@robocop.nyu.edu)
  1113. Courant Institute of Mathematical Sciences
  1114. New York University
  1115. 251 Mercer St.
  1116. New York, NY, 10012  U.S.A.
  1117.  
  1118. ***************
  1119.  
  1120. survey (with extensive bibliography):
  1121. ====================================
  1122. Ashok Samal and Prasana A. Iyengar: "Automatic Recognition and
  1123. Analysis of Human Faces and facial Expressions: A Survey"
  1124. Pattern Recognition _25(1)_, 65--77, 1992.
  1125.  
  1126.  
  1127. references:
  1128. ==========
  1129. Andrew C. Aitchison and Ian Craw.  "Synthetic Images Of Faces - An Approach
  1130. to Model-Based face recognition" in "BMVC91, Proceedings of the British
  1131. Machine Vision Conference", 1991, (Peter Mowforth, editor) Springer-Verlag.
  1132.  
  1133. Shigeru Akamatsu and Tsutomu Sasaki and Hideo Fukamachi and Nobuhiko Masui
  1134. and Yasuhito Suenaga.  "An Accurate and Robust Face Identification Scheme"
  1135. in ICPR'92, 1992.
  1136.  
  1137. Shigeru Akamatsu and Tsutomu Sasaki and Hideo Fukamachi and Yasuhito Suenaga.
  1138. "A robust face identification scheme --- KL expansion of an invariant feature
  1139. space" in Intelligent Robots and Computer Vision X: Algorithms and Techniques",
  1140. SPIE #1607, 1991.  pp. 71-84.
  1141.  
  1142. Robert Baron, Mechanisms of human facial recognition
  1143. International Journal of Man-Machine Studies (1981) 15, 137-178
  1144.  
  1145. Alan Bennett and Ian Craw.  "Finding Image Features Using Deformable Templates
  1146. And Detailed Prior Statistical Knowledge" in "BMVC91, Proceedings of the
  1147. British Machine Vision Conference", 1991, (Peter Mowforth, editor),
  1148. Springer-Verlag.
  1149.  
  1150. Brunelli, R. and Poggio, T. "Face Recognition through Geometrical Features"
  1151. in "Proc. 2nd European Conf. on Computer Vision, Lecture Notes in Computer
  1152. Science #588" (G. Sandini, editor), Springer Verlag, 1992.  pp. 792-800.
  1153.  
  1154. R. Brunelli and T. Poggio, ``HyperBF networks for gender classification,''
  1155. Proc. DARPA IU Workshop, 1992, 311--314.
  1156.  
  1157. Buhmann, Joachim and Lades, Martin and von der Marlsburg, Christoph.  "Size
  1158. and Distortion Invariant Object Recognition by Hierarchical Graph Matching",
  1159. IJCNN, 1990, V.2.  pp. 411-416.
  1160.  
  1161. Burt, Peter J.  "Smart Sensing within a Pyramid Vision Machine" in
  1162. "Proceedings of the {IEEE}", 1988, vol 76, no 8, pp. 1006-1015.
  1163.  
  1164. Craw, Ian and Cameron, Peter. "Face Recognition by Computer" in
  1165. "Proc. British Machine Vision Conference", 1992, (David Hogg and Roger
  1166. Boyle, editors), Springer Verlag.
  1167.  
  1168. Ian Craw and Peter Cameron.  "Parameterising Images for Recognition and
  1169. Reconstruction" in "BMVC91, Proceedings of the British Machine Vision
  1170. Conference", 1991,(Peter Mowforth, editor), Springer-Verlag.
  1171.  
  1172. I. Craw, H. Ellis and J.R. Lishman, Automatic extraction of face-features
  1173. Pattern Recognition Letters, 5, 1987, 183-187
  1174.  
  1175. Ian Craw and David Tock and Alan Bennett.  "Finding Face Features" in ECCV'92,
  1176. Lecture Notes in Computer Science #588, Springer Verlag.  pp.
  1177.  
  1178. S. Edelman and D. Reisfeld and Y. Yeshurun.  "Learning to recognize faces
  1179. from examples" in "Proc. 2nd European Conf. on Computer Vision, Lecture Notes
  1180. in Computer Science #588", (G. Sandini, editor), Springer Verlag, 1992.
  1181. pp. 787-791.
  1182.  
  1183. Fleming, Michael K. and Cottrell, Garrison W. ""Categorization of Faces
  1184. Using Unsupervised Feature Extraction" in IJCNN, 1990, Vol 2, pp. 65-70.
  1185.  
  1186. R Gallery and T I P Trew. "An Architecture for Face Classification" in
  1187. "Colloquium: Machine Storage and Recognition of Faces. IEE Digest 017, 1992.
  1188.  
  1189. Goldstein, A. Jay and Harmon, Leon D. and Lesk, Ann B.  "Identification of
  1190. Human Faces" in "Proceedings of the {IEEE}", 1971, Vol 59, No 5, pp. 748-760.
  1191.  
  1192. G.G. Gordon, ``Face recognition based on depth and curvature features,''
  1193. Proc. IEEE CVPR, 1992, 808--810.
  1194.  
  1195. Govindaraju, Venu and Srihari, Sargur. N. and Sher, David B.  "A Computational
  1196. Model for Face Location" in ICCV'90, pp. 718-721.
  1197.  
  1198. Harmon, L. D. and Khan, M. K. and Lasch, Richard and Ramig, P. F.
  1199. "Machine Identification of Human Faces" in "Pattern Recognition", 1981,
  1200. Vol 13, No. 2, pp. 97-110.
  1201.  
  1202. Hong, Zi-Quan.  "Algebraic feature extraction of image for recognition" in
  1203. "Pattern Recognition", Vol 24, March 1991, pp. 211-219.
  1204.  
  1205. Jia, Xiaoguang and Nixon, Mark S.  "On developing an extended feature set
  1206. for automatic face recognition" in "Colloquium: Machine Storage and
  1207. Recognition of Faces, IEE Digest 017", 1992.
  1208.  
  1209. Kanade, Takeo.  "Computer Recognition of Human Faces" in volume 47 of
  1210. "Interdisciplinary Systems Research", Birkhauser, Basel, Stuttgart, 1977.
  1211.  
  1212. Kaya, Y. and Kobayashi, K.  ""A Basic Study on Human Face Recognition" in
  1213. "Frontiers of Pattern Recognition", 1972, pp. 265-289.
  1214.  
  1215. Kirby, M. and Sirovich, L.  "Application of the Karhunen-Lo\`{e}ve
  1216. Procedure for the Characterization of Human Faces" in PAMI-12, 1980,
  1217. V.12, no 1, pp. 103-108.
  1218.  
  1219. J.C. Lee and E. Milios, ``Matching range images of human faces,''
  1220. Proc. ICCV, 1990, 722--726.
  1221.  
  1222. B.S. Manjunath, R. Chellappa, and C. von der Malsburg, ``A feature based
  1223. approach to face recognition,'' Proc. IEEE CVPR, 1992, 373--378.
  1224.  
  1225. Nakamura, Osamu and Mathur, Shailendra and Minami, Toshi.  "Identification
  1226. of Human Faces Based on Isodensity Maps" in "Pattern Recognition", 1991,
  1227. Vol 24, no 3, pp. 263-272.
  1228.  
  1229. A. Pentland and S. Sclaroff, ``Closed-form solutions for physically
  1230. based shape modeling and recognition,'' IEEE PAMI, Vol.\ 13,
  1231. 1991, 715--729.
  1232.  
  1233. C.S. Ramsey and K. Sutherland and D. Renshaw and P.B. Denyer.  "A Comparison
  1234. of Vector Quantisation Codebook Generation  Algorithms Applied to Automatic
  1235. Face Recognition" in "Proceedings of BMVC-92", (David Hogg, editor),
  1236. Springer-Verlag, 1992.
  1237.  
  1238. Anne-Caroline Schreiber et. al., Facenet: A Connectionist Model of
  1239. Face Identification in Context
  1240. European Journal of Cognitive Psychology, 1991, 3 (1), 177-198
  1241.  
  1242. Ken Sutherland, D. Rensham, and P.B. Denyer.  "A novel automatic face
  1243. recognition algorithm employing vector quantization" in "Colloquium:
  1244. Machine Storage and Recognition of Faces, IEE Digest 017", 1992.
  1245.  
  1246. D. Terzopoulos and K. Waters, ``Analysis of facial images using
  1247. physical and anatomical models,'' Proc. ICCV,
  1248. 1990, 727--732.
  1249.  
  1250. David Tock and Ian Craw and Roly Lishman.  "A Knowledge Based System for
  1251. Measuring Faces" in "BMVC90, Proceedings of the British Machine Vision
  1252. Conference", 1990.  pp. 401-407.
  1253.  
  1254. M. Turk, "Interactive-Time Vision:  Face Recognition as a Visual
  1255. Behavior", Ph.D. Thesis, MIT Media Lab, August 1991.
  1256.  
  1257. M. Turk and A. Pentland, ``Eigenfaces for recognition,''
  1258. {\sl Journal of Cognitive Neuroscience}, Vol. 3, No. 1, pp. 71-86, 1991.
  1259.  
  1260. M. Turk and A. Pentland, ``Face Recognition Using
  1261. Eigenfaces,'' {\sl Proc. CVPR}, Maui, Hawaii, pp. 586-591, 1991.
  1262.  
  1263. M. Turk and A. Pentland, ``Recognition in face space,''
  1264. {\sl Intelligent Robots and Computer Vision IX}, SPIE Vol. 1381,
  1265. Boston, MA, 1990.  (Reprinted in
  1266. H. Nasr (ed.), {\sl Selected Papers on Automatic Object Recognition},
  1267. SPIE Optical Engineering Press, Washington, 1991.)
  1268.  
  1269. Wong, K. H. and Law, Hudson H. M. and Tsang, P. W. M.  "A system for
  1270. recognising human faces" in "Proceedings of the International Conference
  1271. on Acoustics, Speech and Signal Processing", 1989, pp.1638-1642.
  1272.  
  1273. Y. Yacoob and L. Davis, Qualitative Labeling of Human Face Features from
  1274. Range Data, Technical Report CS-TR-2971, Center for Automation Research,
  1275. University of Maryland, College Park, MD, Oct. 1992.
  1276.  
  1277. A.L. Yuille, D.S. Cohen, and P.W. Hallinan, ``Feature extraction
  1278. from faces using deformable templates,'' Proc. IEEE CVPR, 1989,
  1279. 104--109.
  1280.  
  1281. Alan Yuille, Deformable Templates for face recognition
  1282. Journal of Cognitive Neuroscience, 1991, Vol 3, No. 1, p59-70
  1283.  
  1284.  
  1285. papers soon to be released:
  1286. ==========================
  1287. work by Martin Lades, C. von der Malsburg (et al.?) to appear in IEEE Trans.
  1288. on Computers.
  1289.  
  1290. report on face recognition prepared by Alex Pentland, Terry Sejnowski and
  1291. others soon to be publicly available.
  1292.  
  1293.  
  1294. ------------------------------
  1295.  
  1296. From: nde@scs.leeds.ac.uk
  1297. Date: Fri, 11 Dec 92 12:57:10 GMT
  1298. Subject: Snakes: summary of responses (long)
  1299. Status: R
  1300.  
  1301. The response to my request for references on snakes and active contour
  1302. models was terrific: my thanks go to all who contributed information. I've
  1303. collated the various contributions into the list below.
  1304.  
  1305. Nick Efford
  1306. School of Computer Studies
  1307. Leeds University, Leeds, UK
  1308.  
  1309. @inproceedings{amini88:iccv,
  1310.     author    = "Amini, A. and Tehrani, S. and Weymouth, T",
  1311.     year    = 1988,
  1312.     title    = "Using dynamic programming for minimizing the energy of
  1313.           active contours in the presence of hard constraints",
  1314.     booktitle    = "Proceedings of the Second International Conference on
  1315.           Computer Vision, Tampa, Florida",
  1316.     pages    = "95--99"}
  1317.  
  1318. @inproceedings{berger90:icpr,
  1319.     author    = "Berger, M. O. and Mohr, R.",
  1320.     year    = 1990,
  1321.     title    = "Towards autonomy in active contour models",
  1322.     booktitle    = "Proceedings of the Tenth International Conference on
  1323.           Pattern Recognition"}
  1324.  
  1325. @article{brzak91:cvgip,
  1326.     author    = "Brzakovic, D. and Liakopoulos, A. and Hong, L.",
  1327.     year    = 1991,
  1328.     title    = "Spline models for boundary detection/description:
  1329.           formulation and performance evaluation",
  1330.     journal    = "CVGIP: Graphical Models and Image Processing",
  1331.     volume    = 53,
  1332.     number    = 4,
  1333.     pages    = "392--401"}
  1334.  
  1335. @incollection{calbom91,
  1336.     author    = "Calbom, I. and Terzopoulos, D. and Harris, K. M.",
  1337.     year    = 1991,
  1338.     title    = "Reconstructing and visualizing models of neuronal
  1339.           dendrites",
  1340.     booktitle    = "Scientific Visualization of Physical Phenomena",
  1341.     publisher    = "Springer-Verlag",
  1342.     pages    = "623--638"}
  1343.  
  1344. @article{cohen91:cvgip,
  1345.     author    = "Cohen, L. D.",
  1346.     year    = 1991,
  1347.     title    = "Note on active contour models and balloons",
  1348.     journal    = "CVGIP: Image Understanding",
  1349.     volume    = 53,
  1350.     number    = 2,
  1351.     pages    = "211-218"}
  1352.  
  1353. @inproceedings{cohen90:iccv,
  1354.     author    = "Cohen, L. and Cohen, I.",
  1355.     year    = 1990,
  1356.     title    = "A finite element method applied to new active contour
  1357.           models and {3D} reconstructions",
  1358.     booktitle    = "Proceedings of the Third International Conference on
  1359.           Computer Vision, Osaka, Japan, December 1990",
  1360.     pages    = "587--591"}
  1361.  
  1362. @article{cohen92:cvgip,
  1363.     author    = "Cohen, I. and Cohen, L. D. and Ayache, N.",
  1364.     year    = 1992,
  1365.     title    = "Using deformable templates to segment {3D} imags and
  1366.           infer differential structures",
  1367.     journal    = "CVGIP: Image Understanding",
  1368.     volume    = 56,
  1369.     number    = 2,
  1370.     pages    = "242--263"}
  1371.  
  1372. @inproceedings{cohen92:cvpr,
  1373.     author    = "Cohen, L. D. and Cohen, I.",
  1374.     year    = 1992,
  1375.     title    = "Deformable models for {3D} medical images using
  1376.           finite elements and balloons",
  1377.     booktitle    = "IEEE Computer Society Conference on Computer Vision
  1378.           and Pattern Recognition, Champaign, Illinois, June
  1379.           1992"}
  1380.  
  1381. @techreport{davatz92,
  1382.     author    = "Davatzikos, C. A. and Prince, J. L.",
  1383.     year    = 1992,
  1384.     title    = "An active contour algorithm for thick curves",
  1385.     institution    = "Johns Hopkins University",
  1386.     number    = "JHU/ECE 92-07"}
  1387.  
  1388. @inproceedings{davatz92:icassp,
  1389.     author    = "Davatzikos, C. A. and Prince, J. L.",
  1390.     year    = 1992,
  1391.     title    = "Segmentation and mapping of highly-convoluted
  1392.           contours with applications to medical images",
  1393.     booktitle    = "Proceedings of ICASSP '92, IEEE Conference on
  1394.           Acoustics, Speech and Signal Processing"}
  1395.  
  1396. @unpublished{davatz93:cvpr,
  1397.     author    = "Davatzikos, C. A. and Prince, J. L.",
  1398.     year    = 1993,
  1399.     title    = "Adaptive active contour algorithms for extracting and
  1400.           mapping thick curves",
  1401.     note    = "Submitted to CVPR '93, IEEE Conference on Computer
  1402.           Vision and Pattern Recognition"}
  1403.  
  1404. @article{kass88:ijcv,
  1405.     author    = "Kass, M. and Witkin, A. and Terzopoulos, D.",
  1406.     year    = 1988,
  1407.     title    = "Snakes: active contour models",
  1408.     journal    = "International Journal of Computer Vision",
  1409.     volume    = 1,
  1410.     number    = 4,
  1411.     pages    = "321--331"}
  1412.  
  1413. @article{leymarie92:pami,
  1414.     author    = "Leymarie, F. and Levine, M. D.",
  1415.     year    = 1992,
  1416.     title    = "Simulating the grassfire transform using an active
  1417.           contour model",
  1418.     journal    = "IEEE Transations on Pattern Analysis and Machine
  1419.           Intelligence",
  1420.     volume    = 14,
  1421.     number    = 1,
  1422.     pages    = "56--75"}
  1423.  
  1424. @unpublished{leymarie93:pami,
  1425.     author    = "Leymarie, F. and Levine, M. D.",
  1426.     year    = 1993,
  1427.     title    = "Tracking deformable objects in the plane using an
  1428.           active contour model",
  1429.     note    = "To appear in IEEE Transactions on Pattern Analysis
  1430.           and Machine Intelligence"}
  1431.  
  1432. @inproceedings{menet90:darpa,
  1433.     author    = "Menet, S. and Saint-Marc, P. and Medioni, G.",
  1434.     year    = 1990,
  1435.     title    = "B-snakes: implementation and application to stereo",
  1436.     booktitle    = "Proceedings of the DARPA Image Understanding
  1437.           Workshop, Pittsburgh, Pennsylvania, September 1990"}
  1438.  
  1439. @article{poggio85,
  1440.     author    = "Poggio, T. and Torre, V. and Koch, C.",
  1441.     year    = 1985,
  1442.     title    = "Computational vision and regularization theory",
  1443.     journal    = "Nature",
  1444.     volume    = 317,
  1445.     pages    = "314--319"}
  1446.  
  1447. @inproceedings{richens92:ipa,
  1448.     author    = "Richens, D. and Rougan, N. and Bloch, I. and
  1449.           Mousseaux, E.",
  1450.     year    = 1992,
  1451.     title    = "Segmentation by deformable contours of {MRI} sequence
  1452.           of left ventricle for quantitative myocardial
  1453.           analysis",
  1454.     booktitle    = "IEE Proceedings of the Fourth International
  1455.           Conference on Image Processing and its Applications,
  1456.           Maastricht, April 1992",
  1457.     pages    = "393--396"}
  1458.  
  1459. @article{rougan91:spie,
  1460.     author    = "Rougan, N. and Preteux, F.",
  1461.     year    = 1991,
  1462.     title    = "Deformable markers: mathematical morphology for
  1463.           active contour model control",
  1464.     journal    = "Proceedings of the Society of Photo-Optical
  1465.           Instrumentation Engineers",
  1466.     volume    = 1568,
  1467.     pages    = "78--89"}
  1468.  
  1469. @inproceedings{rougan92:embs,
  1470.     author    = "Rougan, N. and Preteux, F.",
  1471.     year    = 1992,
  1472.     title    = "Oriented smoothness constraints for adaptive active
  1473.           contour models",
  1474.     booktitle    = "Proceedings of the Fourteenth Conference of the IEEE
  1475.           Engineering in Medicine and Biology Society",
  1476.     pages    = "1916--1917"}
  1477.  
  1478. @article{samad91:spie,
  1479.     author    = "Samadani, R.",
  1480.     year    = 1991,
  1481.     title    = "Adaptive snakes: control of damping and material
  1482.           parameters",
  1483.     journal    = "Proceedings of the Society of Photo-Optical
  1484.           Instrumentation Engineers",
  1485.     volume    = 1568}
  1486.  
  1487. @article{sinha92:pami,
  1488.     author    = "Sinha, S. S. and Schunk, B. G.",
  1489.     year    = 1992,
  1490.     title    = "A two-stage algorithm for discontinuity-preserving
  1491.           surface reconstruction",
  1492.     journal    = "IEEE Transactions on Pattern Analysis and Machine
  1493.           Intelligence",
  1494.     volume    = "PAMI-14",
  1495.     number    = 1,
  1496.     pages    = "36--55"}
  1497.  
  1498. @article{snyder91:pami,
  1499.     author    = "Snyder, M. A.",
  1500.     year    = 1991,
  1501.     title    = "On the mathematical foundations of smoothness
  1502.           constraints for the determination of optical flow and
  1503.           for surface reconstruction",
  1504.     journal    = "IEEE Transactions on Pattern Analysis and Machine
  1505.           Intelligence",
  1506.     volume    = "PAMI-13",
  1507.     number    = 11,
  1508.     pages    = "1105--1114"}
  1509.  
  1510. @article{staib92:pami,
  1511.     author    = "Staib, L. H. and Duncan, J. S.",
  1512.     year    = 1992,
  1513.     title    = "Boundary finding with parametrically deformable
  1514.           models",
  1515.     journal    = "IEEE Transactions on Pattern Analysis and Machine
  1516.           Intelligence",
  1517.     volume    = "PAMI-14",
  1518.     number    = 11,
  1519.     pages    = "1061--1075"}
  1520.  
  1521. @article{terzop86:pami,
  1522.     author    = "Terzopoulos, D.",
  1523.     year    = 1986,
  1524.     title    = "Regularization of inverse visual problems involving
  1525.           discontinuities",
  1526.     journal    = "IEEE Transactions on Pattern Analysis and Machine
  1527.           Intelligence",
  1528.     volume    = "PAMI-8",
  1529.     number    = 4,
  1530.     pages    = "413--423"}
  1531.  
  1532. @article{terzop87:cg,
  1533.     author    = "Terzopoulos, D. and Platt, J. and Barr, A. and
  1534.           Fleischer, K.",
  1535.     year    = 1987,
  1536.     title    = "Elastically deformable models",
  1537.     journal    = "Computer Graphics",
  1538.     volume    = 21,
  1539.     number    = 4,
  1540.     pages    = "205--214"}
  1541.  
  1542. @article{terzop88:cga,
  1543.     author    = "Terzopoulos, D. and Witkin, A.",
  1544.     year    = 1988,
  1545.     title    = "Physically-based models with rigid and deformable
  1546.           components",
  1547.     journal    = "IEEE Computer Graphics and Applications",
  1548.     month    = "November",
  1549.     pages    = "41--51"}
  1550.  
  1551. @article{terzop88:ai,
  1552.     author    = "Terzopoulos, D. and Witkin, A.",
  1553.     year    = 1988,
  1554.     title    = "Constraints on deformable models: recovering shape
  1555.           and non-rigid motion",
  1556.     journal    = "Artificial Intelligence",
  1557.     volume    = 36,
  1558.     pages    = "91--123"}
  1559.  
  1560. @article{waite90:bttj,
  1561.     author    = "Waite, J. B. and Welsh, W. J.",
  1562.     year    = 1990,
  1563.     title    = "Head boundary location using snakes",
  1564.     journal    = "British Telecom Technology Journal",
  1565.     volume    = 8,
  1566.     number    = 3,
  1567.     pages    = "127--136"}
  1568.  
  1569. @article{will92:cvgip,
  1570.     author    = "Williams, D. J. and Shah, M.",
  1571.     year    = 1992,
  1572.     title    = "A fast algorithm for active contours and curvature
  1573.           information",
  1574.     journal    = "CVGIP: Image Understanding",
  1575.     number    = 55,
  1576.     volume    = 1,
  1577.     pages    = "14--26"}
  1578.  
  1579. @article{yuille92:ijcv,
  1580.     author    = "Yuille, A. L. and Hallinan, P. W. and Cohen, D. S.",
  1581.     year    = 1992,
  1582.     title    = "Feature extraction from faces using deformable
  1583.           templates",
  1584.     journal    = "International Journal of Computer Vision",
  1585.     volume    = 8,
  1586.     number    = 2,
  1587.     pages    = "99--111"}
  1588.  
  1589. ------------------------------
  1590.  
  1591. End of VISION-LIST digest 11.43
  1592. ************************
  1593.