home *** CD-ROM | disk | FTP | other *** search
/ Hacker Chronicles 2 / HACKER2.BIN / 1018.NEURON < prev    next >
Text File  |  1993-11-19  |  246KB  |  6,172 lines

  1. Received: from BUACCA by BUACCA.BU.EDU (Mailer R2.08 PTF009) with BSMTP id
  2.  8794; Tue, 09 Nov 93 16:23:43 EST
  3. Received: from noc4.dccs.upenn.edu by BUACCA.BU.EDU (IBM VM SMTP R1.2.1) with
  4.  TCP; Tue, 09 Nov 93 16:23:23 EST
  5. Received: from CATTELL.PSYCH.UPENN.EDU by noc4.dccs.upenn.edu
  6.     id AA03858; Tue, 9 Nov 93 16:03:59 -0500
  7. Return-Path: <marvit@cattell.psych.upenn.edu>
  8. Received: from LOCALHOST by cattell.psych.upenn.edu
  9.     id AA05479; Tue, 9 Nov 93 15:17:29 EST
  10. Posted-Date: Tue, 09 Nov 93 15:16:44 EST
  11. From: "Neuron-Digest Moderator" <neuron-request@CATTELL.PSYCH.UPENN.EDU>
  12. To: Neuron-Distribution:;
  13. Subject: Neuron Digest V12 #12 (book, jobs, misc, benchmarks)
  14. Reply-To: "Neuron-Request" <neuron-request@CATTELL.PSYCH.UPENN.EDU>
  15. X-Errors-To: "Neuron-Request" <neuron-request@psych.upenn.edu>
  16. Organization: University of Pennsylvania
  17. Date: Tue, 09 Nov 93 15:16:44 EST
  18. Message-Id: <5460.752876204@cattell.psych.upenn.edu>
  19. Sender: marvit@cattell.psych.upenn.edu
  20.  
  21. Neuron Digest   Tuesday,  9 Nov 1993
  22.                 Volume 12 : Issue 12
  23.  
  24. Today's Topics:
  25.                 Santa Fe Time Series Competition book out
  26.                       Hidden layer representations
  27.                              Contact request
  28.                            Post-doc at Purdue
  29.                     Benchmarks - Summary of Responses
  30.  
  31.  
  32. Send submissions, questions, address maintenance, and requests for old
  33. issues to "neuron-request@psych.upenn.edu". The ftp archives are
  34. available from psych.upenn.edu (130.91.68.31). Back issues requested by
  35. mail will eventually be sent, but may take a while.
  36.  
  37. ----------------------------------------------------------------------
  38.  
  39. Subject: Santa Fe Time Series Competition book out
  40. From:    weigend@sabai.cs.colorado.edu
  41. Date:    Fri, 22 Oct 93 01:37:55 -0700
  42.  
  43.  
  44. Announcing book on the results of the Santa Fe Time Series Competition:
  45.       ____________________________________________________________________
  46.  
  47.         Title:  TIME SERIES PREDICTION:
  48.                 Forecasting the Future and Understanding the Past.
  49.  
  50.        Editors: Andreas S. Weigend and Neil A. Gershenfeld
  51.  
  52.      Publisher: Addison-Wesley, September 1993.
  53.                 Paperback ISBN 0-201-62602-0  US$32.25 (672 pages)
  54.                 Hardcover ISBN 0-201-62601-2  US$49.50 (672 pages)
  55.  
  56.                 The rest of this message gives some background,
  57.                 ordering information, and the table of contents.
  58.       ____________________________________________________________________
  59.  
  60.       Most observational disciplines, such as physics, biology, and finance,
  61. try to infer properties of an unfamiliar system from the analysis of a measured
  62. time record of its behavior.  There are many mature techniques associated with
  63. traditional time series analysis.  However, during the last decade, several new
  64. and innovative approaches have emerged (such as neural networks and time-delay
  65. embedding), promising insights not available with these standard methods.
  66.  
  67.       Unfortunately, the realization of this promise has been difficult.
  68. Adequate benchmarks have been lacking, and much of the literature has been
  69. fragmentary and anecdotal.
  70.  
  71.       This volume addresses these shortcomings by presenting the results of a
  72. careful comparison of different methods for time series prediction and
  73. characterization.  This breadth and depth was achieved through the Santa Fe
  74. Time Series Prediction and Analysis Competition, which brought together an
  75. international group of time series experts from a wide variety of fields to
  76. analyze data from the following common data sets:
  77.  
  78.      -  A physics laboratory experiment (NH3 laser)
  79.      -  Physiological data from a patient with sleep apnea
  80.      -  Tick-by-tick currency exchange rate data
  81.      -  A computer-generated series designed specifically for the Competition
  82.      -  Astrophysical data from a variable white dwarf star
  83.      -  J. S. Bach's last (unfinished) fugue from "Die Kunst der Fuge."
  84.  
  85. In bringing together the results of this unique competition, this volume serves
  86. as a much-needed survey of the latest techniques in time series analysis.
  87.  
  88.       Andreas Weigend received his Ph.D. from Stanford University
  89.       and was a postdoc at Xerox PARC.  He is Assistant Professor in
  90.       the Computer Science Department and at the Institute of
  91.       Cognitive Science at the University of Colorado at Boulder.
  92.  
  93.       Neil Gershenfeld received his Ph.D. from Cornell University
  94.       and was a Junior Fellow at Harvard University.  He is Assistant
  95.       Professor at the Media Lab at MIT.
  96.       ____________________________________________________________________
  97.  
  98.       Order it through your bookstore, or directly from the publisher by
  99.       -  calling the Addison-Wesley Order Department at 1-800-358-4566,
  100.       -  faxing 1-800-333-3328,
  101.       -  emailing <marcuss@world.std.com>, or
  102.       -  writing to Advanced Book Marketing
  103.                     Addison-Wesley Publishing
  104.                     One Jacob Way
  105.                     Reading, MA 01867, USA.
  106.       VISA, Mastercard, and American Express and checks are accepted.  When you
  107.  prepay by check, Addison-Wesley pays shipping and ha
  108. ndling charges.  If payment does not accompany your order, shipping charges will
  109.  be added to your invoice.  Addison-Wesley is requir
  110. ed to remit sales tax to the following states: AZ, AR, CA, CO, CT, FL, GA, IL,
  111.  IN, LA, ME, MA, MI, MN, NY, NC, OH, PA, RI, SD, TN, T
  112. X, UT, VT, WA, WV, WI.
  113.  
  114.      _____________________________________________________________________
  115.  
  116.      TABLE OF CONTENTS
  117.  
  118.  xv  Preface
  119.           Andreas S. Weigend and Neil A. Gershenfeld
  120.  
  121.  
  122.   1  The Future of Time Series: Learning and Understanding
  123.           Neil A. Gershenfeld and Andreas S. Weigend
  124.  
  125.  
  126. Section I.  DESCRIPTION OF THE DATA SETS__________________________________
  127.  
  128.  73  Lorenz-Like Chaos in NH3-FIR Lasers
  129.           Udo Huebner, Carl-Otto Weiss, Neal Broadus Abraham, and Dingyuan Tang
  130.  
  131. 105  Multi-Channel Physiological Data: Description and Analysis
  132.           David R. Rigney, Ary L. Goldberger, Wendell C. Ocasio, Yuhei Ichimaru,
  133.  George B. Moody, and Roger G. Mark
  134.  
  135. 131  Foreign Currency Dealing: A Brief Introduction
  136.           Jean Y. Lequarre
  137.  
  138. 139  Whole Earth Telescope Observations of the White Dwarf Star (PG1159-035)
  139.           J. Christopher Clemens
  140.  
  141. 151  Baroque Forecasting: On Completing J.S. Bach's Last Fugue
  142.           Matthew Dirst and Andreas S. Weigend
  143.  
  144.  
  145. Section II. TIME SERIES PREDICTION________________________________________
  146.  
  147. 175  Time Series Prediction by Using Delay Coordinate Embedding
  148.           Tim Sauer
  149.  
  150. 195  Time Series Prediction by Using a Connectionist Network with Internal Delay
  151.  Lines
  152.           Eric A. Wan
  153.  
  154. 219  Simple Architectures on Fast Machines: Practical Issues in Nonlinear Time
  155.  Series Prediction
  156.           Xiru Zhang and Jim Hutchinson
  157.  
  158. 243  Neural Net Architectures for Temporal Sequence Processing
  159.           Michael C. Mozer
  160.  
  161. 265  Forecasting Probability Densities by Using Hidden Markov Models with Mixed
  162.  States
  163.           Andrew M. Fraser and Alexis Dimitriadis
  164.  
  165. 283  Time Series Prediction by Using the Method of Analogues
  166.           Eric J. Kostelich and Daniel P. Lathrop
  167.  
  168. 297  Modeling Time Series by Using Multivariate Adaptive Regression Splines
  169. (MARS)
  170.           P.A.W. Lewis, B.K. Ray, and J.G. Stevens
  171.  
  172. 319  Visual Fitting and Extrapolation
  173.           George G. Lendaris and Andrew M. Fraser
  174.  
  175. 323  Does a Meeting in Santa Fe Imply Chaos?
  176.           Leonard A. Smith
  177.  
  178.  
  179. Section III.  TIME SERIES ANALYSIS AND CHARACTERIZATION___________________
  180.  
  181. 347  Exploring the Continuum Between Deterministic and Stochastic Modeling
  182.           Martin C. Casdagli and Andreas S. Weigend
  183.  
  184. 367  Estimating Generalized Dimensions and Choosing Time Delays: A Fast
  185.  Algorithm
  186.           Fernando J. Pineda and John C. Sommerer
  187.  
  188. 387  Identifying and Quantifying Chaos by Using Information-Theoretic
  189.  Functionals
  190.           Milan Palus
  191.  
  192. 415  A Geometrical Statistic for Detecting Deterministic Dynamics
  193.           Daniel T. Kaplan
  194.  
  195. 429  Detecting Nonlinearity in Data with Long Coherence Times
  196.           James Theiler, Paul S. Linsay, and David M. Rubin
  197.  
  198. 457  Nonlinear Diagnostics and Simple Trading Rules for High-Frequency Foreign
  199.  Exchange Rates
  200.           Blake LeBaron
  201.  
  202. 475  Noise Reduction by Local Reconstruction of the Dynamics
  203.           Holger Kantz
  204.  
  205.  
  206. Section IV.  PRACTICE AND PROMISE_________________________________________
  207.  
  208. 493  Large-Scale Linear Methods for Interpolation, Realization, and
  209.  Reconstruction of Noisy, Irregularly Sampled Data
  210.           William H. Press and George B. Rybicki
  211.  
  212. 513  Complex Dynamics in Physiology and Medicine
  213.           Leon Glass and Daniel T. Kaplan
  214.  
  215. 529  Forecasting in Economics
  216.           Clive W.J. Granger
  217.  
  218. 539  Finite-Dimensional Spatial Disorder: Description and Analysis
  219.           V.S. Afraimovich, M.I. Rabinovich, and A.L. Zheleznyak
  220.  
  221. 557  Spatio-Temporal Patterns: Observations and Analysis
  222.           Harry L. Swinney
  223.  
  224.  
  225. 569  Appendix:  Accessing the Server
  226.  
  227. 571  Bibliography (800 references)
  228.  
  229. 631  Index
  230.  
  231.  
  232. ------------------------------
  233.  
  234. Subject: Hidden layer representations
  235. From:    garry_k <G.Kearney@greenwich.ac.uk>
  236. Date:    Fri, 22 Oct 93 12:49:43 +0000
  237.  
  238. As a newcomer to NN I would value direction in the area of how we can
  239. discover real world representations in the layers of the net. I would
  240. appreciate some guidance as to reading matter on this. I understand
  241. that pca and cluster analysis is involved usually. Is this the only
  242. method? What applications derive from discovering these
  243. representations? Thanks.
  244.  
  245.  
  246. ------------------------------
  247.  
  248. Subject: Contact request
  249. From:    Rowan Limb <rlimb@hfnet.bt.co.uk>
  250. Date:    Fri, 22 Oct 93 15:31:21 +0000
  251.  
  252. I have a copy of an abstract submitted to the International Neural Network
  253. Conference held in Paris in July 1990 (INNC-90) but no full paper was
  254. submitted. I would like further information on this submission and/or
  255. a contact address (email if possible) for the authors. The details are:
  256.  
  257. Title: Associative Relational Database: Design and Implementation
  258.  
  259. Authors: Vladimir Cherkassky & Michael J Endrizzi
  260.          Dept. of Electrical Engineering & Dept. of Computer Science
  261.          University of Minnesota
  262.          Minneapolis, MN 55455 USA
  263.  
  264. Thanks in advance,
  265.  
  266. Rowan Limb
  267. Decision Support Systems
  268. BT Laboratories
  269. Martlesham Heath
  270. IPSWICH IP5 7RE
  271. England
  272.  
  273. email: limb_p_r@bt-web.bt.co.uk
  274.    or: rlimb@hfnet.bt.co.uk
  275.  
  276.  
  277. ------------------------------
  278.  
  279. Subject: Post-doc at Purdue
  280. From:    Frank Doyle <fdoyle@ecn.purdue.edu>
  281. Date:    Fri, 22 Oct 93 12:12:30 -0600
  282.  
  283. Postdoctoral position available in :
  284.  
  285. NEURO-MODELING
  286.  
  287. in the Department of Chemical Engineering, Purdue University
  288.  
  289.  
  290. Position for 2 years (beginning Fall 1993; salary: $25,000 per year).
  291.  
  292. Subject:  Neuro-modeling of blood pressure control
  293.  
  294. This project is part of an interdisciplinary program involving
  295. industrial and academic participants from DuPont, Purdue University,
  296. the University of Pennsylvannia, and Louisiana State University.  The
  297. program encompasses the disciplines of chemical engineering, automatic
  298. control, and neuroscience.  Active interactions with engineers and
  299. nonlinear control and modeling community at Purdue and DuPont as well
  300. as with the neuroscientists at DuPont and Penn will be necessary for
  301. the success of the project. A strong background in neuro-modeling is
  302. required.  The facilities at Purdue include state-of-the art
  303. computational workstations (HP 735s and Sun 10/41s).
  304.  
  305. The postdoctoral candidate will work on the development of models of
  306. the control mechanisms responsible for blood pressure regulation.   The
  307. neural system under investigation is the cardiorespiratory control
  308. system, which integrates sensory information on respiratory and
  309. cardiovascular variables to regulate and coordinate cardiac, vascular
  310. and respiratory activity. In order to better understand this system our
  311. program does neurobiolgical research and computational modeling. In
  312. effect, these results reverse engineer neuronal and systems
  313. function, which can have implications for engineering application; and
  314. the engineering applications of our first interest are in chemical
  315. engineering. The overall effort involves neurobiologists, chemical
  316. engineers, computer scientists, bioengineers and neural systems
  317. modelers.  The present position is meant to contribute to the neural
  318. systems modeling - chemical engineering interaction.
  319.  
  320. The neural computational-modeling work is progressing at several
  321. levels: (1) systems-level modeling modeling of the closed-loop
  322. cardiorespiratory system, (2) cellular level modeling of nonlinear
  323. computation in Hodgkin-Huxley style neuron models, and (3) network
  324. modeling of networks built-up from HH-style neurons incorporating
  325. channel kinetics and synaptic conductances to capture the mechanisms in
  326. the baroreceptor vagal reflex. The macroscopic model will be used (in
  327. conjunction with experimental data from the literature and from the
  328. laboratory of Dr. Schwaber) in developing structures to represent the
  329. control functions. The synaptic level modeling activities will be used
  330. in developing the building blocks which achieve the control function.
  331. The present position will focus towards research goals, under the
  332. supervision of Dr. Frank Doyle, that include the identification of
  333. novel control and modeling techniques.
  334.  
  335.  
  336. Interested candidates should send their curriculum vitae to BOTH:
  337.  
  338. Prof. Francis J. Doyle III
  339. School of Chemical Engineering
  340. Purdue University
  341. West Lafayette, IN 47907-1283
  342. (317) 497-9228
  343. E-mail: fdoyle@ecn.purdue.edu
  344.  
  345. &
  346.  
  347. Dr. James Schwaber
  348. Neural Computation Group
  349. E.I. DuPont deNemours & Co., Inc.
  350. P.O. Box 80352
  351. Wilmington, DE 19880-0352
  352. (302) 695-7136
  353. E-mail: schwaber@eplrx7.es.duPont.com
  354.  
  355.  
  356.  
  357.  
  358.  
  359.  
  360. ------------------------------
  361.  
  362. Subject: Benchmarks - Summary of Responses
  363. From:    stjaffe@vaxsar.vassar.edu (steve jaffe)
  364. Date:    22 Oct 93 14:18:47 -0500
  365.  
  366. Thanks to those who responded to my request for information on collections
  367. of benchmarks with which to test and compare various nn architectures and
  368. algorithms.  Specific thanks to Nadine Tschichold-Guerman
  369. <nadine@ifr.ethz.ch>, John Reynolds <reynolds@cns.bu.edu>, Tim Ross
  370. <ross@toons.aar.wpafb.af.mil>, and Peter G. Raeth
  371. <raethpg%wrdc.dnet@wl.wpafb.af.mil>. I list below their specific
  372. recommendations along with others I have discovered.
  373.  
  374. Most correspondents mentioned the UCI database, and it would seem to be the
  375. largest and best-known such collection.  It is, not surprisingly, also
  376. listed in the FAQ for comp.ai.neural-nets.
  377.  
  378. =====================================
  379. 1. From "FAQ for comp.ai.neural-nets":
  380. written by: Lutz Prechelt   (email: prechelt@ira.uka.de)
  381. (Note: the current FAQ can be obtained by ftp from
  382. rtfm.mit.edu. Look in the anonymous ftp directory "/pub/usenet/news.answers")
  383.  
  384. Question 19:-A19.) Databases for experimentation with NNs ?
  385.  
  386. [are there any more ?]
  387.  
  388. 1. The nn-bench Benchmark collection
  389.    accessible via anonymous FTP on
  390.      "pt.cs.cmu.edu"
  391.    in directory
  392.      "/afs/cs/project/connect/bench"
  393.    or via the Andrew file system in the directory
  394.      "/afs/cs.cmu.edu/project/connect/bench"
  395.    In case of problems email contact is "nn-bench-request@cs.cmu.edu".
  396.    Data sets currently avaialable are:
  397.         nettalk Pronunciation of English words.
  398.         parity          N-input parity.
  399.         protein Prediction of secondary structure of proteins.
  400.         sonar           Classification of sonar signals.
  401.         two-spirals     Distinction of a twin spiral pattern.
  402.         vowel           Speaker independant recognition of vowels.
  403.         xor             Traditional xor.
  404.  
  405.  
  406. 2. UCI machine learning database
  407.    accessible via anonymous FTP on
  408.      "ics.uci.edu" [128.195.1.1]
  409.    in directory
  410.      "/pub/machine-learning-databases"
  411.  
  412. 3. NIST special databases of the National Institute Of Standards
  413.    And Technology:
  414.    NIST special database 2:
  415.      Structured Forms Reference Set (SFRS)
  416.  
  417.      The NIST database of structured forms contains 5,590 full page images
  418.      of simulated tax forms completed using machine print. THERE IS NO REAL
  419.      TAX DATA IN THIS DATABASE. The structured forms used in this database
  420.      are 12 different forms from the 1988, IRS 1040 Package X. These
  421.      include Forms 1040, 2106, 2441, 4562, and 6251 together with Schedules
  422.      A, B, C, D, E, F and SE.  Eight of these forms contain two pages or
  423.      form faces making a total of 20 form faces represented in the
  424.      database.  Each image is stored in bi-level black and white raster
  425.      format.  The images in this database appear to be real forms prepared
  426.      by individuals but the images have been automatically derived and
  427.      synthesized using a computer and contain no "real" tax data. The entry
  428.      field values on the forms have been automatically generated by a
  429.      computer in order to make the data available without the danger of
  430.      distributing privileged tax information.  In addition to the images
  431.      the database includes 5,590 answer files, one for each image. Each
  432.      answer file contains an ASCII representation of the data found in the
  433.      entry fields on the corresponding image. Image format documentation
  434.      and example software are also provided.  The uncompressed database
  435.      totals approximately 5.9 gigabytes of data.
  436.  
  437.    NIST special database 3:
  438.      Binary Images of Handwritten Segmented Characters (HWSC)
  439.  
  440.      Contains 313,389 isolated character images segmented from the
  441.      2,100 full-page images distributed with "NIST Special Database 1".
  442.      223,125 digits, 44,951 upper-case, and 45,313 lower-case character
  443.      images. Each character image has been centered in a separate
  444.      128 by 128 pixel region, error rate of the segmentation and
  445.      assigned classification is less than 0.1%.
  446.      The uncompressed database totals approximately 2.75 gigabytes of
  447.      image data and includes image format documentation and example software.
  448.  
  449.  
  450.    NIST special database 4:
  451.      8-Bit Gray Scale Images of Fingerprint Image Groups (FIGS)
  452.  
  453.      The NIST database of fingerprint images contains 2000 8-bit gray scale
  454.      fingerprint image pairs. Each image is 512 by 512 pixels with 32 rows
  455.      of white space at the bottom and classified using one of the five
  456.      following classes: A=Arch, L=Left Loop, R=Right Loop, T=Tented Arch,
  457.      W=Whirl. The database is evenly distributed over each of the five
  458.      classifications with 400 fingerprint pairs from each class. The images
  459.      are compressed using a modified JPEG lossless compression algorithm
  460.      and require approximately 636 Megabytes of storage compressed and 1.1
  461.      Gigabytes uncompressed (1.6 : 1 compression ratio). The database also
  462.      includes format documentation and example software.
  463.  
  464.    More short overview:
  465.    Special Database 1 - NIST Binary Images of Printed Digits, Alphas, and Text
  466.    Special Database 2 - NIST Structured Forms Reference Set of Binary Images
  467.    Special Database 3 - NIST Binary Images of Handwritten Segmented Characters
  468.    Special Database 4 - NIST 8-bit Gray Scale Images of Fingerprint Image Groups
  469.    Special Database 6 - NIST Structured Forms Reference Set 2 of Binary Images
  470.    Special Database 7 - NIST Test Data 1: Binary Images of Handprinted Segmented
  471.                         Characters
  472.    Special Software 1 - NIST Scoring Package Release 1.0
  473.  
  474.    Special Database 1 - $895.00
  475.    Special Database 2 - $250.00
  476.    Special Database 3 - $895.00
  477.    Special Database 4 - $250.00
  478.    Special Database 6 - $250.00
  479.    Special Database 7 - $1,000.00
  480.    Special Software 1 - $1,150.00
  481.  
  482.    The system requirements for all databases are a 5.25" CD-ROM drive
  483.    with software to read ISO-9660 format.
  484.  
  485.    Contact:  Darrin L. Dimmick
  486.              dld@magi.ncsl.nist.gov     (301)975-4147
  487.  
  488.    If you wish to order the database, please contact:
  489.      Standard Reference Data
  490.      National Institute of Standards and Technology
  491.      221/A323
  492.      Gaithersburg, MD 20899
  493.      (301)975-2208  or  (301)926-0416 (FAX)
  494.  
  495. 4. CEDAR CD-ROM 1: Database of Handwritten
  496.    Cities, States, ZIP Codes, Digits, and Alphabetic Characters
  497.  
  498.    The Center Of Excellence for Document Analysis and Recognition (CEDAR)
  499.    State University of New York at Buffalo announces the availability of
  500.    CEDAR CDROM 1: USPS Office of Advanced Technology
  501.    The database contains handwritten words and ZIP Codes
  502.    in high resolution grayscale (300  ppi  8-bit)  as  well  as
  503.    binary handwritten digits and alphabetic characters (300 ppi
  504.    1-bit).  This database is intended to encourage research  in
  505.    off-line  handwriting  recognition  by  providing  access to
  506.    handwriting samples  digitized  from  envelopes in a working
  507.    post office.
  508.      Specifications of the database include:
  509.      +    300 ppi 8-bit grayscale handwritten words (cities,
  510.           states, ZIP Codes)
  511.           o    5632 city words
  512.           o    4938 state words
  513.           o    9454 ZIP Codes
  514.      +    300 ppi binary handwritten characters and digits:
  515.           o    27,837 mixed alphas  and  numerics  segmented
  516.                from address blocks
  517.           o    21,179 digits segmented from ZIP Codes
  518.      +    every image supplied with  a  manually  determined
  519.           truth value
  520.      +    extracted from live mail in a  working  U.S.  Post
  521.           Office
  522.      +    word images in the test  set  supplied  with  dic-
  523.           tionaries  of  postal  words that simulate partial
  524.           recognition of the corresponding ZIP Code.
  525.      +    digit images included in test  set  that  simulate
  526.           automatic ZIP Code segmentation.  Results on these
  527.           data can be projected to overall ZIP Code recogni-
  528.           tion performance.
  529.      +    image format documentation and software included
  530.    System requirements are a 5.25" CD-ROM drive with software  to  read  ISO-
  531.    9660 format.
  532.    For any further information, including how to order the
  533.    database, please contact:
  534.      Jonathan J. Hull, Associate Director, CEDAR, 226 Bell Hall
  535.      State University of New York at Buffalo, Buffalo, NY 14260
  536.      hull@cs.buffalo.edu (email)
  537.  
  538.  
  539. ==========================================
  540. 2. From John Reynolds <reynolds@cns.bu.edu>:
  541.  
  542. We've come across several benchmarks which were proposed as standards
  543. for categorizers.  More information is available on each in a couple
  544. of papers we wrote, which were printed in Neural Networks and IEEE
  545. Transactions on Neural Networks.
  546.  
  547. The mushroom database was introduced by Schlimmer in 1987.  The
  548. task is to tell poisonous and non-poisonous musrhooms apart.  There
  549. are 8124 training patterns, of which about 50% are poisonous and 50%
  550. are non-poisonous.   The database is available by anonymous ftp, and
  551. is described in:
  552.  
  553. Carpenter, G.A., Grossberg, S., and Reynolds, J., (1991). ARTMAP:
  554. Supervised real-time learning and classification of nonstationary data
  555. by a self-organizing neural network, {\sl Neural Networks}, {\bf 4},
  556. 565--588.
  557.  
  558. Three more benchmark problems, described briefly below, are detailed
  559. in the following article:
  560.  
  561. Carpenter, G.A., Grossberg, S., Markuzon, N., Reynolds, J., and
  562. Rosen,D., (1992). Fuzzy ARTMAP: A neural network architecture for
  563. incremental supervised learning of analog multidimensional maps, {\em
  564. IEEE Transactions on Neural Networks}, {\bf 3}, 698--713.
  565.  
  566. Frey and Slate developed a benchmark machine learning task in 1991 in
  567. which a system has to identify an input exemplar as one of 26 capital
  568. letters A--Z.  The database was derived from 20,000 different binary
  569. pixel images.  There are a wide variety of letter types represented --
  570. different stroke styles, letter styles, and random distortions. This
  571. database is available from the UCI Repository of Machine Learning
  572. Databases maintained by David repository@ics.uci.edu
  573.  
  574. Lang and Witbrock Alexis P. Wieland introduced the nested spirals
  575. problem, and it has been used as a benchmark by Lang and Witbrock,
  576. 1989.  The two spirals of the benchmark task each make three complete
  577. turns in the plane, with 32 points per turn plus an endpoint,
  578. totalling 97.
  579.  
  580. The circle in the square problem, which requires a system to identify
  581. which points of a square lie inside and which lie outside a circle
  582. whose area equals half that of the square, was specified as a
  583. benchmark problem for system performance evaluation in the DARPA
  584. Artificial Neural Network Technology (ANNT) Program (Wilensky, 1990).
  585.  
  586. Last time I checked, there are a variety of different learning tasks
  587. in the UCI repository, and that would probably be worth looking into.
  588. I hope that helps.  Good luck with your search!  -John
  589.  
  590. =================================================
  591. 3. From Tim Ross <ross@toons.aar.wpafb.af.mil>:
  592.  
  593. I'm sure you're aware of the uci machine learning database (ics.uci.edu)
  594. and the logic synthesis benchmarks (gloster@mcnc.org) that are also used
  595. as machine learning test cases.
  596.  
  597. We at Wright Lab use a set of 30 benchmark functions, each on 8 binary
  598. inputs and a single binary output. These functions were selected for a
  599. variety of type (numeric, symbolic, images, ...), complexity (measured by
  600. decomposed function cardinality, an especially robust measure), and
  601. number of minority elements (i.e. fraction of inputs whose output is
  602. ONE).  We have done/are doing experiments (using these benchmarks) with a
  603. BP NN, Abductory Inference Mechanism, C4.5 and an in-house method.  We
  604. are also developing a similar set of benchmark functions on larger (esp.
  605. 12 and 16) numbers of input variables.  We, of course, would be happy to
  606. see these benchmarks used elsewhere.
  607.  
  608. =======================================
  609. 4. A set of examples comes with the distribution of the nn simulator
  610. package "Aspirin/Migraines", available from two FTP sites:
  611.    CMU's simulator collection on "pt.cs.cmu.edu" (128.2.254.155)
  612.    in /afs/cs/project/connect/code/am6.tar.Z".
  613.    and UCLA's cognitive science machine "ftp.cognet.ucla.edu" (128.97.50.19)
  614.    in alexis/am6.tar.Z
  615.  
  616. These are the examples provided:
  617.  
  618. xor: from RumelHart and McClelland, et al,
  619. "Parallel Distributed Processing, Vol 1: Foundations",
  620. MIT Press, 1986, pp. 330-334.
  621.  
  622. encode: from RumelHart and McClelland, et al,
  623. "Parallel Distributed Processing, Vol 1: Foundations",
  624. MIT Press, 1986, pp. 335-339.
  625.  
  626. bayes: Approximating the optimal bayes decision surface
  627. for a gauss-gauss problem.
  628.  
  629. detect: Detecting a sine wave in noise.
  630.  
  631. iris: The classic iris database.
  632.  
  633. characters: Learing to recognize 4 characters independent
  634. of rotation.
  635.  
  636. ring: Autoregressive network learns a decaying sinusoid
  637. impulse response.
  638.  
  639. sequence: Autoregressive network learns to recognize
  640. a short sequence of orthonormal vectors.
  641.  
  642. sonar: from  Gorman, R. P., and Sejnowski, T. J. (1988).
  643. "Analysis of Hidden Units in a Layered Network Trained to
  644. Classify Sonar Targets" in Neural Networks, Vol. 1, pp. 75-89.
  645.  
  646. spiral: from  Kevin J. Lang and Michael J, Witbrock, "Learning
  647. to Tell Two Spirals Apart", in Proceedings of the 1988 Connectionist
  648. Models Summer School, Morgan Kaufmann, 1988.
  649.  
  650. ntalk: from Sejnowski, T.J., and Rosenberg, C.R. (1987).
  651. "Parallel networks that learn to pronounce English text" in
  652. Complex Systems, 1, 145-168.
  653.  
  654. perf: a large network used only for performance testing.
  655.  
  656. monk: The backprop part of the monk paper. The MONK's problem were
  657. the basis of a first international comparison
  658. of learning algorithms. The result of this comparison is summarized in
  659. "The MONK's Problems - A Performance Comparison of Different Learning
  660. algorithms" by S.B. Thrun, J. Bala, E. Bloedorn, I.  Bratko, B.
  661. Cestnik, J. Cheng, K. De Jong, S.  Dzeroski, S.E. Fahlman, D. Fisher,
  662. R. Hamann, K. Kaufman, S. Keller, I. Kononenko, J.  Kreuziger, R.S.
  663. Michalski, T. Mitchell, P.  Pachowicz, Y. Reich H.  Vafaie, W. Van de
  664. Welde, W. Wenzel, J. Wnek, and J. Zhang has been published as
  665. Technical Report CS-CMU-91-197, Carnegie Mellon University in Dec.
  666. 1991.
  667.  
  668. wine: From the ``UCI Repository Of Machine Learning Databases
  669. and Domain Theories'' (ics.uci.edu: pub/machine-learning-databases).
  670.  
  671.  
  672.  
  673.  
  674. ------------------------------
  675.  
  676. End of Neuron Digest [Volume 12 Issue 12]
  677. *****************************************
  678. Received: from BUACCA by BUACCA.BU.EDU (Mailer R2.08 PTF009) with BSMTP id
  679.  2846; Thu, 11 Nov 93 20:36:48 EST
  680. Received: from noc4.dccs.upenn.edu by BUACCA.BU.EDU (IBM VM SMTP R1.2.1) with
  681.  TCP; Thu, 11 Nov 93 20:36:41 EST
  682. Received: from CATTELL.PSYCH.UPENN.EDU by noc4.dccs.upenn.edu
  683.     id AA25500; Thu, 11 Nov 93 20:21:41 -0500
  684. Return-Path: <marvit@cattell.psych.upenn.edu>
  685. Received: from LOCALHOST by cattell.psych.upenn.edu
  686.     id AA13257; Thu, 11 Nov 93 19:35:22 EST
  687. Posted-Date: Thu, 11 Nov 93 19:34:39 EST
  688. From: "Neuron-Digest Moderator" <neuron-request@CATTELL.PSYCH.UPENN.EDU>
  689. To: Neuron-Distribution:;
  690. Subject: Neuron Digest V12 #13 (conference - NIPS pt 1)
  691. Reply-To: "Neuron-Request" <neuron-request@CATTELL.PSYCH.UPENN.EDU>
  692. X-Errors-To: "Neuron-Request" <neuron-request@psych.upenn.edu>
  693. Organization: University of Pennsylvania
  694. Date: Thu, 11 Nov 93 19:34:39 EST
  695. Message-Id: <13235.753064479@cattell.psych.upenn.edu>
  696. Sender: marvit@cattell.psych.upenn.edu
  697.  
  698. Neuron Digest   Thursday, 11 Nov 1993
  699.                 Volume 12 : Issue 13
  700.  
  701. Today's Topics:
  702.                             NIPS*93 workshops
  703.                             NIPS*93 workshop
  704.                              NIPS*93 program
  705.                    NIPS Workshop: Selective Attention
  706.  
  707.  
  708. Send submissions, questions, address maintenance, and requests for old
  709. issues to "neuron-request@psych.upenn.edu". The ftp archives are
  710. available from psych.upenn.edu (130.91.68.31). Back issues requested by
  711. mail will eventually be sent, but may take a while.
  712.  
  713. ----------------------------------------------------------------------
  714.  
  715. Subject: NIPS*93 workshops
  716. From:    "Michael C. Mozer" <mozer@dendrite.cs.colorado.edu>
  717. Date:    Mon, 06 Sep 93 20:21:07 -0700
  718.  
  719. For the curious, a list of topics for the NIPS*93 post-conference workshops
  720. is attached.  The workshops will be held in Vail, Colorado, on December 3 and
  721. 4, 1993.
  722.  
  723. For further info concerning the individual workshops, please contact the
  724. workshop organizers, whose names and e-mail are listed below.  Abstracts are
  725. not available at present, but will be distributed prior to the workshops.
  726.  
  727. For NIPS conference and workshop registration info, please write to:  NIPS*93
  728. Registration / NIPS Foundation / PO Box 60035 / Pasadena, CA  91116-6035 USA
  729.  
  730.  
  731. - ----------------
  732. December 3, 1993
  733. - ----------------
  734.  
  735. Complexity Issues in Neural Computation and Learning
  736.    Vwani Roychowdhury & Kai-Yeung Siu
  737.    vwani@ecn.purdue.edu
  738.  
  739. Connectionism for Music and Audition
  740.    Andreas Weigend & Dick Duda
  741.    weigend@cs.colorado.edu
  742.  
  743. Memory-based Methods for Regression and Classification
  744.    Thomas Dietterich
  745.    tgd@cs.orst.edu
  746.  
  747. Neural Networks and Formal Grammars
  748.    Simon Lucas
  749.    sml@essex.ac.uk
  750.  
  751. Neurobiology, Psychophysics, and Computational Models of Visual Attention
  752.    Ernst Niebur & Bruno Olshausen
  753.    ernst@acquine.cns.caltech.edu
  754.  
  755. Robot Learning: Exploration and Continuous Domains
  756.    David Cohn
  757.    cohn@psyche.mit.edu
  758.  
  759. Stability and Observability
  760.    Max Garzon & F. Botelho
  761.    garzonm@maxpc.msci.memst.edu
  762.  
  763. VLSI Implementations
  764.    William O. Camp, Jr.
  765.    camp@owgvm6.vnet.ibm.com
  766.  
  767. What Does the Hippocampus Compute?
  768.    Mark Gluck & Bruce McNaughton
  769.    gluck@pavlov.rutgers.edu
  770.  
  771. - ----------------
  772. December 4, 1993
  773. - ----------------
  774.  
  775. Catastrophic Interference in Connectionist Networks:  Can it be Predicted,
  776. Can it be Prevented?
  777.    Bob French
  778.    french@willamette.edu
  779.  
  780. Connectionist Modeling and Parallel Architectures
  781.    Joachim Diederich & Ah Chung Tsoi
  782.    joachim@fitmail.fit.qut.edu.au
  783.  
  784. Dynamic Representation Issues in Connectionist Cognitive Modeling
  785.    Jordan Pollack
  786.    pollack@cis.ohio-state.edu
  787.  
  788. Functional Models of Selective Attention and Context Dependency
  789.    Thomas Hildebrandt
  790.    thildebr@aragorn.csee.lehigh.edu
  791.  
  792. Learning in Computer Vision and Image Understanding -- An Advantage over
  793. Classical Techniques?
  794.    Hayit Greenspan
  795.    hayit@micro.caltech.edu
  796.  
  797. Memory-based Methods for Regression and Classification
  798.    Thomas Dietterich
  799.    tgd@cs.orst.edu
  800.  
  801. Neural Network Methods for Optimization Problems
  802.    Arun Jagota
  803.    jagota@cs.buffalo.edu
  804.  
  805. Processing of Visual and Auditory Space and its Modification by Experience
  806.    Josef Rauschecker
  807.    josef@helix.nih.gov
  808.  
  809. Putting it all Together:  Methods for Combining Neural Networks
  810.    Michael Perrone
  811.    mpp@cns.brown.edu
  812.  
  813.  
  814. - ---------------------------------------------------------
  815. NOTE:  The assignment of workshops to dates is tentative.
  816. - ---------------------------------------------------------
  817.  
  818.  
  819. ------------------------------
  820.  
  821. Subject: NIPS*93 workshop
  822. From:    Arun Jagota <jagota@cs.Buffalo.EDU>
  823. Date:    Fri, 10 Sep 93 17:08:05 -0500
  824.  
  825.  
  826.                         CALL FOR PARTICIPATION
  827.  
  828.                           NIPS*93 workshop on
  829.  
  830.             Neural Network Methods for Optimization Problems
  831.  
  832. There are 4-5 slots remaining for brief oral presentations of 20-30 minutes
  833. each. To be considered, submit either (i) a title and one page abstract or
  834. (ii) a bibliography of recent work on the topic.
  835.  
  836. Please submit materials by electronic mail to Arun Jagota
  837. (jagota@cs.buffalo.edu) by October 5. Later submissions risk not having
  838. remaining open slots.
  839.  
  840. Program:
  841. - -------
  842. Ever since the work of Hopfield and Tank, neural networks have found
  843. increasing use for the approximate solution of hard optimization problems.
  844. The successes in the past have however been limited, when compared to
  845. traditional methods. In this workshop we will discuss the state of the art
  846. of neural network algorithms for optimization, examine their weaknesses and
  847. strengths, and discuss potential for improvement. Second, as the algorithms
  848. arise from different areas (e.g. some from statistical physics, others from
  849. computer science) we hope that researchers from these disciplines will share
  850. their own insights with others. Third, we also hope to discuss theoretical
  851. issues that arise in using neural network algorithms for optimization.
  852. Finally, we hope to have people to discuss parallel implementation issues
  853. or case studies.
  854. - ---------------------
  855.  
  856. Arun Jagota
  857.  
  858.  
  859. ------------------------------
  860.  
  861. Subject: NIPS*93 program
  862. From:    Bartlett Mel <mel@cns.caltech.edu>
  863. Date:    Mon, 04 Oct 93 14:41:11 -0800
  864.  
  865.  
  866.  
  867.         NIPS*93  MEETING PROGRAM and REGISTRATION REMINDER
  868.  
  869. The 1993 Neural Information Processing Systems (NIPS*93) meeting is
  870. the seventh meeting of an inter-disciplinary conference which brings
  871. together neuroscientists, engineers, computer scientists, cognitive
  872. scientists, physicists, and mathematicians interested in all aspects
  873. of neural processing and computation.  There will be an afternoon of
  874. tutorial presentations (Nov. 29), two and a half days of regular
  875. meeting sessions (Nov. 30 - Dec. 2), and two days of focused workshops
  876. at a nearby ski area (Dec. 3-4).
  877.  
  878. An electronic copy of the 1993 NIPS registration brochure is available
  879. in postscript format via anonymous ftp at helper.systems.caltech.edu
  880. in /pub/nips/NIPS_93_brochure.ps.Z.  For a hardcopy of the brochure or
  881. other information, please send a request to nips93@systems.caltech.edu
  882. or to: NIPS Foundation, P.O. Box 60035, Pasadena, CA 91116-6035.
  883.  
  884. EARLY REGISTRATION DEADLINE (for $100 discount): Oct. 30
  885.  
  886. _________________
  887.  
  888.  
  889. NIPS*93 ORAL PRESENTATIONS PROGRAM
  890.  
  891.  
  892. Tues. AM: Cognitive Science
  893.  
  894. 8:30    Invited Talk: Jeff Elman, UC San Diego:
  895.         From Weared to Wore: A Connectionist Account of the
  896.         History of the Past Tense
  897. 9:00    Richard O. Duda, San Jose State Univ.:
  898.         Connectionist Models for Auditory Scene Analysis
  899. 9:20    Reza Shadmehr and Ferdinando A. Mussa-Ivaldi, MIT:
  900.         Computational Elements of the Adaptive Controller of the Human Arm
  901. 9:40    Catherine Stevens and Janet Wiles, University of Queensland:
  902.         Tonal Music as a Componential Code: Learning Temporal Relationships
  903.         Between and Within Pitch and Timing Components
  904. 10:00   Poster Spotlights:
  905.         Thea B. Ghiselli-Crispa and Paul Munro, Univ. of Pittsburgh:
  906.         Emergence of Global Structure from Local Associations
  907.         Tony A. Plate, University of Toronto:
  908.         Estimating Structural Similarity by Vector Dot Products of
  909.         Holographic Reduced Representations
  910. 10:10   BREAK
  911.  
  912.         Speech Recognition
  913.  
  914. 10:40   Jose C. Principe, Hui-H. Hsu and Jyh-M. Kuo, Univ. of Florida:
  915.         Analysis of Short Term Neural Memory Structures for Nonlinear Prediction
  916. 11:00   Eric I. Chang and Richard P. Lippmann, MIT Lincoln Laboratory:
  917.         Figure of Merit Training for Detection and Spotting
  918. 11:20   Gregory J. Wolff, K. Venkatesh Prasad, David G. Stork and
  919.         Marcus Hennecke, Ricoh California Research Center:
  920.         Lipreading by Neural Networks: Visual Preprocessing, Learning and
  921.         Sensory Integration
  922. 11:40   Poster Spotlights:
  923.         Steve Renals, Mike Hochberg and Tony Robinson, Cambridge University:
  924.         Learning Temporal Dependencies In Large-Scale Connectionist
  925.         Speech Recognition
  926.         Ying Zhao, John Makhoul, Richard Schwartz and George
  927.         Zavaliagkos, BBN Systems and Technologies:
  928.         Segmental Neural Net Optimization for Continuous Speech Recognition
  929. 11:50   Rod Goodman, Caltech: Posner Memorial Lecture
  930.  
  931.  
  932. Tues. PM: Temporal Prediction and Control
  933.  
  934. 2:00    Invited Talk: Doyne Farmer, Prediction Co.:
  935.         Time Series Analysis of Nonlinear and Chaotic Time Series:  State Space
  936.         Reconstruction and the Curse of Dimensionality
  937. 2:30    Kenneth M. Buckland and Peter D. Lawrence, Univ. of British Columbia:
  938.         Transition Point Dynamic Programming
  939. 2:50    Gary W. Flake, Guo-Zhen Sun, Yee-Chun Lee and Hsing-Hen Chen,
  940.         University of Maryland:
  941.         Exploiting Chaos to Control The Future
  942. 3:10    Satinder P. Singh, Andrew G. Barto, Roderic Grupen and
  943.         Christopher Connolly, University of Massachusetts:
  944.         Robust Reinforcement Learning in Motion Planning
  945. 3:30    BREAK
  946.  
  947.         Theoretical Analysis
  948.  
  949. 4:00    Scott Kirkpatrick, Naftali Tishby, Lidror Troyansky,
  950.         The Hebrew Univ. of Jerusalem, and Geza Gyorgi, Eotvos Univ.:
  951.         The Statistical Mechanics of K-Satisfaction
  952. 4:20    Santosh S. Venkatesh, Changfeng Wang, Univ. of Pennsylvania,
  953.         and Stephen Judd, Siemens Corporate Research:
  954.         When To Stop: On Optimal Stopping And Effective Machine Size In Learning
  955. 4:40    Wolfgang Maass, Technische Univ. Graz:
  956.         Agnostic PAC-Learning Functions on Analog Neural Nets
  957. 5:00    H.N. Mhaskar, California State Univ. and Charles A. Micchelli, IBM:
  958.         How To Choose An Activation Function
  959. 5:20    Poster Spotlights
  960.         Iris Ginzburg, Tel Aviv Univ. and Haim Sompolinsky, Hebrew Univ.:
  961.         Correlation Functions on a Large Stochastic Neural Network
  962.         Xin Wang, Qingnan Li and Edward K. Blum, USC:
  963.         Asynchronous Dynamics of Continuous-Time Neural Networks
  964.         Tal Grossman and Alan Lapedes, Los Alamos National Laboratory:
  965.         Use of Bad Training Data for Better Predictions
  966.  
  967.  
  968. Wed. AM: Learning Algorithms
  969.  
  970. 8:30    Invited Talk: Geoff Hinton, Univ. of Toronto:
  971.         Using the Minimum Description Length Principle to Discover Factorial
  972.         Codes
  973. 9:00    Richard S. Zemel, Salk Institute, and G. Hinton, Univ. of Toronto:
  974.         Developing Population Codes By Minimizing Description Length
  975. 9:20    Sreerupa Das and Michael C. Mozer, University of Colorado:
  976.         A Hybrid Gradient-Descent/Clustering Technique for Finite State
  977.         Machine Induction
  978. 9:40    Eric Saund, Xerox Palo Alto Research Center:
  979.         Unsupervised Learning of Mixtures of Multiple Causes in Binary Data
  980. 10:00   BREAK
  981. 10:30   A. Uzi Levin and Todd Leen, Oregon Graduate Institute:
  982.         Fast Pruning Using Principal Components
  983. 10:50   Christoph Bregler and Stephen Omohundro, ICSI:
  984.         Surface Learning with Applications to Lip Reading
  985. 11:10   Melanie Mitchell, Santa Fe Inst. and John H. Holland, Univ. Michigan:
  986.         When Will a Genetic Algorithm Outperform Hill Climbing
  987. 11:30   Oded Maron and Andrew W. Moore, MIT:
  988.         Hoeffding Races: Accelerating Model Selection Search for Classification
  989.         and Function Approximation
  990. 11:50   Poster Spotlights:
  991.         Zoubin Ghahramani and Michael I. Jordan, MIT:
  992.         Supervised Learning from Incomplete Data via an EM Approach
  993.         Mats Osterberg and Reiner Lenz, Linkoping Univ.
  994.         Unsupervised Parallel Feature Extraction from First Principles
  995.         Terence D. Sanger, LAC-USC Medical Center:
  996.         Two Iterative Algorithms for Computing the Singular Value Decomposition
  997.         from Input/Output Samples
  998.         Patrice Y. Simard and Edi Sackinger, AT&T Bell Laboratories:
  999.         Efficient Computation of Complex Distance Metrics Using Hierarchical
  1000.         Filtering
  1001.  
  1002.  
  1003. Wed. PM: Neuroscience
  1004.  
  1005. 2:00    Invited Talk: Eve Marder, Brandeis Univ.:
  1006.         Dynamic Modulation of Neurons and Networks
  1007. 2:30    Ojvind Bernander, Rodney Douglas and Christof Koch, Caltech:
  1008.         Amplifying and Linearizing Apical Synaptic Inputs to
  1009.         Cortical Pyramidal Cells
  1010. 2:50    Christiane Linster and David Marsan, ESPCI,
  1011.         Claudine Masson and Michel Kerzberg, CNRS:
  1012.         Odor Processing in the Bee: a Preliminary Study of the
  1013.         Role of Central Input to the Antennal Lobe
  1014. 3:10    M.G. Maltenfort, R. E. Druzinsky, C. J. Heckman and
  1015.         W. Z. Rymer, Northwestern Univ.:
  1016.         Lower Boundaries of Motoneuron Desynchronization Via
  1017.         Renshaw Interneurons
  1018. 3:30    BREAK
  1019.  
  1020.         Visual Processing
  1021.  
  1022. 4:00    K. Obermayer, The Salk Institute, L. Kiorpes, NYU and
  1023.         Gary G. Blasdel, Harvard Medical School:
  1024.         Development of Orientation and Ocular Dominance Columns
  1025.         in Infant Macaques
  1026. 4:20    Yoshua Bengio, Yann Le Cun and Donnie Henderson, AT&T Bell Labs:
  1027.         Globally Trained Handwritten Word Recognizer using Spatial
  1028.         Representation, Spatial Displacement Neural Networks and
  1029.         Hidden Markov Models
  1030. 4:40    Trevor Darrell and A. P. Pentland, MIT:
  1031.         Classification of Hand Gestures using a View-based
  1032.         Distributed Representation
  1033. 5:00    Ko Sakai and Leif H. Finkel, Univ. of Pennsylvania:
  1034.         A Network Mechanism for the Determination of Shape-from-Texture
  1035. 5:20    Video Poster Spotlights (to be announced)
  1036.  
  1037.  
  1038. Thurs. AM: Implementations and Applications
  1039.  
  1040. 8:30    Invited Talk: Dan Seligson, Intel:
  1041.         A Radial Basis Function Classifier with On-chip Learning
  1042. 9:00    Michael A. Glover, Current Technology, Inc. and
  1043.         W. Thomas Miller III, University of New Hampshire:
  1044.         A Massively-Parallel SIMD Processor for Neural Network and
  1045.         Machine Vision Application
  1046. 9:20    Steven S. Watkins, Paul M. Chau, and Mark Plutowski, UCSD,
  1047.         Raoul Tawel and Bjorn Lambrigsten, JPL:
  1048.         A Hybrid Radial Basis Function Neurocomputer
  1049. 9:40    Gert Cauwenberghs, Caltech :
  1050.         A Learning Analog Neural Network Chip with Continuous-Time
  1051.         Recurrent Dynamics
  1052. 10:00   BREAK
  1053. 10:30   Invited Talk: Paul Refenes, University College London:
  1054.         Neural Network Applications in the Capital Markets
  1055. 11:00   Jane Bromley, Isabelle Guyon, Yann Le Cun, Eduard Sackinger
  1056.         and Roopak Shah, AT&T Bell Laboratories:
  1057.         Signature Verification using a "Siamese" Time Delay Neural Network
  1058. 11:20   John Platt and Ralph Wolf, Synaptics, Inc.:
  1059.         Postal Address Block Location Using a Convolutional Locator Network
  1060. 11:40   Shumeet Baluja and Dean Pomerleau, Carnegie Mellon University:
  1061.         Non-Intrusive Gaze Tracking Using Artificial Neural Networks
  1062. 12:00   Adjourn to Vail for Workshops
  1063.  
  1064.  
  1065. _____________________
  1066.  
  1067.  
  1068. NIPS*93 POSTER PROGRAM
  1069.  
  1070.  
  1071. Tues. PM Posters:
  1072.  
  1073. Cognitive Science (CS)
  1074. CS-1 Blasig     Using Backpropagation to Automatically Generate Symbolic
  1075.  Classification Rules
  1076. CS-2 Munro, Ghiselli-Crispa     Emergence of Global Structure from Local
  1077.  Associations
  1078. CS-3 Plate      Estimating structural similarity by vector dot products of
  1079.  Holographic Reduced Representations
  1080. CS-4 Shultz, Elman      Analyzing Cross Connected Networks
  1081. CS-5 Sperduti   Encoding of Labeled Graphs by Labeling RAAM
  1082.  
  1083. Speech Processing (SP)
  1084. SP-1 Farrell, Mammone   Speaker Recognition Using Neural Tree Networks
  1085. SP-2 Hirayama, Vatikiotis-Bateson, Kawato       Inverse Dynamics of Speech Motor
  1086.  Control
  1087. SP-3 Renals, Hochberg, Robinson Learning Temporal Dependencies In Large-Scale
  1088.  Connectionist Speech Recognition
  1089. SP-4 Zhao, Makhoul, Schwartz, Zavaliagkos       Segmental Neural Net
  1090.  Optimization for Continuous Speech Recognition
  1091.  
  1092. Control, Navigation and Planning (CT)
  1093. CT-1 Atkeson    Using Local Trajectory Optimizers To Speed Up Global
  1094.  Optimization In Dynamic Programming
  1095. CT-2 Boyan, Littman     A Reinforcement Learning Scheme for Packet Routing Using
  1096.  a Network of Neural Networks
  1097. CT-3 Cohn       Queries and Exploration Using Optimal Experiment Design
  1098. CT-4 Duff, Barto        Monte Carlo Matrix Inversion and Reinforcement Learning
  1099. CT-5 Gullapalli, Barto  Convergence of Indirect Adaptive Asynchronous Dynamic
  1100.  Programming Algorithms
  1101. CT-6 Jaakkola, Jordan, Singh    Stochastic Convergence Of Iterative DP
  1102.  Algorithms
  1103. CT-7 Moore      The Parti-game Algorithm for Variable Resolution Reinforcement
  1104.  Learning in Multidimensional State-spaces
  1105. CT-8 Nowlan, Cacciatore Mixtures of Controllers for Jump Linear and Non-linear
  1106.  Plants
  1107. CT-9 Wada, Koike, Vatikiotis-Bateson, Kawato    A Computational Model for
  1108.  Cursive Handwriting Based on the Minimization Principle
  1109.  
  1110. Learning Theory, Generalization and Complexity (LT)
  1111. LT-01 Cortes, Jackel, Solla, Vapnik, Denker     Learning Curves: Asymptotic
  1112.  Values and Rates of Convergence
  1113. LT-02 Fefferman Recovering A Feed-Forward Net From Its Output
  1114. LT-03 Grossman, Lapedes Use of Bad Training Data for Better Predictions
  1115. LT-04 Hassibi, Sayed, Kailath   H-inf Optimality Criteria for LMS and
  1116.  Backpropagation
  1117. LT-05 Hush, Horne       Bounds on the complexity of recurrent neural network
  1118.  implementations of finite state machines
  1119. LT-06 Ji        A Bound on Generalization Error Using
  1120.  Network-Parameter-Dependent Information and Its Applications
  1121. LT-07 Kowalczyk Counting function theorem for multi-layer networks
  1122. LT-08 Mangasarian, Solodov      Backpropagation Convergence Via Deterministic
  1123.  Nonmonotone Perturbed Minimization
  1124. LT-09 Plutowski, White  Delete-1 Cross-Validation Estimates IMSE
  1125. LT-10 Schwarze, Hertz   Discontinuous Generalization in Large Commitee Machines
  1126. LT-11 Shapiro, Prugel-Bennett   Non-Linear Statistical Analysis and
  1127.  Self-Organizing Competitive Networks
  1128. LT-12 Wahba     Structured Machine Learning for 'Soft' Classification, with
  1129.  Smoothing Spline ANOVA Models and Stacked Tuning, Testin
  1130. g
  1131. and Evaluation
  1132. LT-13 Watanabe  Solvable models of artificial neural networks
  1133. LT-14 Wiklicky  On the Non-Existence of a Universal Learning Algorithm for
  1134.  Recurrent Neural Networks
  1135.  
  1136. Dynamics/Statistical Analysis (DS)
  1137. DS-1 Coolen, Penney, Sherrington        Coupled Dynamics of Fast Neurons and
  1138.  Slow Interactions
  1139. DS-2 Garzon, Botelho    Observability of neural network behavior
  1140. DS-3 Gerstner, van Hemmen       How to Describe Neuronal Activity: Spikes,
  1141.  Rates, or Assemblies?
  1142. DS-4 Ginzburg, Sompolinsky      Correlation Functions on a Large Stochastic
  1143.  Neural Network
  1144. DS-5 Leen, Orr  Momentum and Optimal Stochastic Search
  1145. DS-6 Ruppin, Meilijson  Optimal signalling in Attractor Neural Networks
  1146. DS-7 Wang, Li, Blum     Asynchronous Dynamics of Continuous-Time Neural Networks
  1147.  
  1148. Recurrent Networks (RN)
  1149. RN-1 Baird, Troyer, Eeckman     Grammatical Inference by Attentional Control of
  1150.  Synchronization in an Oscillating Elman Net
  1151. RN-2 Bengio, Frasconi   Credit Assignment through Time: Alternatives to
  1152.  Backpropagation
  1153. RN-3 Kolen      Fool's Gold: Extracting Finite State Machines From Recurrent
  1154.  Network Dynamics
  1155. RN-4 Movellan   A Reinforcement Algorithm to Learn Trajectories with Stochastic
  1156.  Neural Networks
  1157. RN-5 Saunders, Angeline, Pollack         Structural and behavioral evolution of
  1158.  recurrent networks
  1159.  
  1160. Applications (AP)
  1161. AP-01 Baldi, Brunak, Chauvin, Krogh     Hidden Markov Models in Molecular
  1162.  Biology: Parsing the Human Genome
  1163. AP-02 Eeckman, Buhmann, Lades   A Silicon Retina for Face Recognition
  1164. AP-03 Flann     A Hierarchal Approach to Recognizing On-line Cursive Handwriting
  1165. AP-04 Graf, Cosatto, Ting       Locating Address Blocks with a Neural Net System
  1166. AP-05 Karunanithi       Identifying Fault-Prone Software Modules Using
  1167.  Feed-Forward Networks: A Case Study
  1168. AP-06 Keymeulen Comparison Training for a Rescheduling Problem in Neural
  1169.  Networks
  1170. AP-07 Lapedes, Steeg    Use of Adaptive Networks to Find Highly Predictable
  1171.  Protein Structure Classes
  1172. AP-08 Schraudolph, Dayan, Sejnowski     Using the TD(lambda) Algorithm to Learn
  1173.  an Evaluation Funcion for the Game of Go
  1174. AP-09 Smyth     Probabilistic Anomaly Detection in Dynamic Systems
  1175. AP-10 Tishby, Singer    Decoding Cursive Scripts
  1176.  
  1177.  
  1178. Wed. PM posters:
  1179.  
  1180.  
  1181. Learning Algorithms (LA)
  1182. LA-01 Gold, Mjolsness   Clustering with a Domain-Specific Distance Metric
  1183. LA-02 Buhmann   Central and Pairwise Data Clustering by Competitive Neural
  1184.  Networks
  1185. LA-03 de Sa     Learning Classification without Labeled Data
  1186. LA-04 Ghahramani, Jordan        Supervised learning from incomplete data via an
  1187.  EM approach
  1188. LA-05 Tresp, Ahmad, Neuneier    Training Neural Networks with Deficient Data
  1189. LA-06 Osterberg, Lenz   Unsupervised Parallel Feature Extraction from First
  1190.  Principles
  1191. LA-07 Sanger    Two Iterative Algorithms for Computing the Singular Value
  1192.  Decomposition from Input/Output Samples
  1193. LA-08 Leen, Kambhatla   Fast Non-Linear Dimension Reduction
  1194. LA-09 Schaal, Atkeson   Assessing The Quality of Learned Local Models
  1195. LA-10 Simard, Sackinger Efficient computation of complex distance metrics using
  1196.  hierarchical filtering
  1197. LA-11 Tishby, Ron, Singer       The Power of Amnesia
  1198. LA-12 Wettscherek, Dietterich   Locally Adaptive Nearest Neighbor Algorithms
  1199. LA-13 Liu       Robust Parameter Estimation and Model Selection for Neural
  1200.  Network Regression
  1201. LA-14 Wolpert   Bayesian Backpropagation Over Functions Rather Than Weights
  1202. LA-15 Thodberg  Bayesian Backprop in Action: Pruning, Ensembles, Error Bars and
  1203.  Application to Strectroscopy
  1204. LA-16 Dietterich, Jain, Lanthop Dynamic Reposing for Drug Activity Prediction
  1205. LA-17 Ginzburg, Horn    Combined Neural Networks For Time Series Analysis
  1206. LA-18 Graf, Simard      Backpropagation without Multiplication
  1207. LA-19 Harget, Bostock   A Comparative Study of the Performance of a Modified
  1208.  Bumptree with Radial Basis Function Networks and the
  1209. Standard Multi-Layer Perceptron
  1210. LA-20 Najafi, Cherkassky        Adaptive Knot Placement Based on Estimated
  1211.  Second Derivative of Regression Surface
  1212.  
  1213. Constructive/Pruning Algorithms (CP)
  1214. CP-1 Fritzke    Supervised Learning with Growing Cell Structures
  1215. CP-2 Hassibi, Stork, Wolff      Optimal Brain Surgeon: Extensions, streamlining
  1216.  and performance comparisons
  1217. CP-3 Kamimura   Generation of Internal Representations by alpha-transformation
  1218. CP-4 Leerink, Jabri     Constructive Learning Using Internal Representation
  1219.  Conflicts
  1220. CP-5 Utans      Learning in Compositional Hierarchies: Inducing the Structure of
  1221.  Objects from Data
  1222. CP-6 Watanabe   An Optimization Method of Layered Neural Networks Based on the
  1223.  Modified Information Criterion
  1224.  
  1225. Neuroscience (NS)
  1226. NS-01 Bialek, Ruderman  Statistics of Natural Images: Scaling in the Woods
  1227. NS-02 Boussard, Vibert  Dopaminergic neuromodulation brings a dynamical
  1228.  plasticiy to the retina
  1229. NS-03 Doya, Selverston, Rowat   A Hodgkin-Huxley Type Neuron Model that Learns
  1230.  Slow Non-Spike Oscillation
  1231. NS-04 Gusik, Eaton      Directional Hearing by the Mauthner System
  1232. NS-05 Horiuchi, Bishofberger, Koch      Building an Analog VLSI, Saccadic Eye
  1233.  Movement  System
  1234. NS-06 Lewicki   Bayesian Modeling and Classification of Neural Signals
  1235. NS-07 Montague, Dayan, Sejnowski        Foraging in an Uncertain Environment
  1236.  Using Predictive Hebbian Learning
  1237. NS-08 Rosen, Rumelhart, Knudsen A Connectionist Model of the Owl's Sound
  1238.  Localization System
  1239. NS-09 Sanger    Optimal Unsupervised Motor Learning Predicts the Internal
  1240.  Representation of Barn Owl Head Movements
  1241. NS-10 Siegal    An Analog VLSI Model Of Central Pattern Generation In The
  1242.  Medicinal Leech
  1243. NS-11 Usher, Stemmler, Koch     High spike rate variability as a consequence of
  1244.  network amplification of local fluctuations
  1245.  
  1246. Visual Processing (VP)
  1247. VP-1 Ahmad      Feature Densities are Required for Computing Feature
  1248.  Corresponces
  1249. VP-2 Buracas, Albright  Proposed function of MT neurons' receptive field
  1250.  surrounds: computing shapes of objects from velocity fields
  1251. VP-3 Geiger, Diamantaras        Resolving motion ambiguities
  1252. VP-4 Mjolsness  Two-Dimensional Object Localization by Coarse-to-fine
  1253.  Correlation Matching
  1254. VP-5 Sajda, Finkel      Dual Mechanisms for Neural Binding and Segmentation and
  1255.  Their Role in Cortical Integration
  1256. VP-6 Yuille, Smirnakis, Xu      Bayesian Self-Organization
  1257.  
  1258. Implementations (IM)
  1259. IM-01 Andreou, Edwards  VLSI Phase Locking Architecture for Feature Linking in
  1260.  Multiple Target Tracking Systems
  1261. IM-02 Coggins, Jabri    WATTLE: A Trainable Gain Analogue VLSI Neural Network
  1262. IM-03 Elfadel, Wyatt    The "Softmax" Nonlinearity: Derivation Using Statistical
  1263.  Mechanics and Useful Properties as a Multiterminal
  1264. Analog Circuit Element
  1265. IM-04 Muller, Kocheisen, Gunzinger      High Performance Neural Net Simulation
  1266.  on a Multiprocessor System with "Intelligent"
  1267. Communication
  1268. IM-05 Murray, Burr, Stork, et al.       Digital Boltzmann VLSI for constraint
  1269.  satisfaction and learning
  1270. IM-06 Niebur, Brettle   Efficient Simulation of Biological Neural Networks on
  1271.  Massively Parallel Supercomputers with Hypercube
  1272. Architecture
  1273. IM-07 Oliveira, Sangiovanni-Vincentelli Learning Complex Boolean Functions:
  1274.  Algorithms and Applications
  1275. IM-08 Shibata, Kotani, Yamashita et al. Implementing Intelligence on Silicon
  1276.  Using Neuron-Like Functional MOS Transistors
  1277. IM-09 Watts     Event-Driven Simulation of Networks of Spiking Neurons
  1278.  
  1279.  
  1280.  
  1281. ------------------------------
  1282.  
  1283. Subject: NIPS Workshop: Selective Attention
  1284. From:    Thomas Hildebrandt <thildebr@aragorn.csee.lehigh.edu>
  1285. Date:    Tue, 05 Oct 93 14:08:11 -0500
  1286.  
  1287.  
  1288. I wish to call your attention to a workshop on selective attention
  1289. which I will be hosting at this year's NIPS conference.
  1290.  
  1291.  
  1292. ===================================================================
  1293.  
  1294.                   NIPS*93 Postconference Workshop
  1295.  
  1296.    Functional Models of Selective Attention and Context Dependency
  1297.                         December 4, 1993
  1298.  
  1299.  
  1300. Intended Audience: Those applying NNs to vision and speech analysis
  1301.         and pattern recognition tasks, as well as computational
  1302.         neurobiologists modelling attentional mechanisms.
  1303.  
  1304. Organizer: Thomas H. Hildebrandt
  1305.            thildebr@athos.eecs.lehigh.edu
  1306.  
  1307.  
  1308. ABSTRACT: Classification based on trainable models still fails to
  1309. achieve the current ideal of human-like performance.  One identifiable
  1310. reason for this failure is the disparity between the number of
  1311. training examples needed to achieve good performance (large) and the
  1312. number of labelled samples available for training (small).  On certain
  1313. tasks, humans are able to generalize well when given only one
  1314. exemplar.  Clearly, a different mechanism is at work.
  1315.  
  1316. In human behavior, there are numerous examples of selective attention
  1317. improving a person's recognition capabilities.  Models using context
  1318. or selective attention seek to improve classification performance by
  1319. modifying the behavior of a classifier based on the current (and
  1320. possibly recent) input data.  Because they treat learning and
  1321. contextual adaptation as two different processes, these models solve
  1322. the memory/plasticity dilemma by incorporating both.  In other words,
  1323. they differ fundamentally from models which attempt to provide
  1324. contextual adaptation by allowing all the weights in the network to
  1325. continue evolving while the system is in operation.
  1326.  
  1327.  
  1328. Schedule                                        December 4, 1993
  1329. ========                                        ================
  1330.  
  1331. 7:30 - 7:35     Opening Remarks
  1332.  
  1333. 7:35 - 8:00     Current Research in Selective Attention
  1334.                 Thomas H. Hildebrandt, Lehigh University
  1335.  
  1336. 8:00 - 8:30     Context-varying Preferences and Traits in a Class of
  1337.                 Neural Networks
  1338.                 Daniel S. Levine, University of Texas at Arlington
  1339.                 Samuel J. Leven, For a New Social Science
  1340.  
  1341. 8:30 - 9:00     ETS - A Formal Model of an Evolving Learning Machine
  1342.                 L.Goldfarb, J.Abela, V.Kamat, University of New Brunswick
  1343.  
  1344. 9:00 - 9:30     Recognizing Handwritten Digits Using a Selective
  1345.                 Attention Mechanism
  1346.                 Ethem Alpaydin, Bogazici University, Istanbul TURKEY
  1347.  
  1348. 9:30 - 4:30     FREE TIME
  1349.  
  1350. 4:30 - 5:00     Context and Selective Attention in the Capital Markets
  1351.                 P. N. Refenes, London Business School
  1352.  
  1353. 5:00 - 5:30     The Global Context-Sensitive Constraint Satisfaction Property
  1354.                 in Adaptive Perceptual Pattern Recognition
  1355.                 Jonathan A. Marshall, University of North Carolina
  1356.  
  1357. 5:30 - 6:00     Neural Networks for Context Sensitive Representation
  1358.                 of Synonymous and Homonymic Patterns
  1359.                 Albert Nigrin, American University
  1360.  
  1361. 6:00 - 6:30     Learn to Pay Attention, Young Network!
  1362.                 Barak A. Pearlmutter, Siemens Corp. Research Ctr.,
  1363.                 Princeton NJ
  1364.  
  1365. 6:30 - 6:35     Closing Remarks
  1366.  
  1367. 7:00            Workshop Wrap-Up (common to all sessions)
  1368.  
  1369. =====================================================================
  1370.  
  1371.  
  1372. The topic to be covered differs from that recently announced by Ernst
  1373. Niebur and Bruno Olshausen, in that "functional" models are not
  1374. necessarily tied to neurophysiological structures.  Thanks to the
  1375. Workshop Chair, Mike Mozer, the two workshops were scheduled on
  1376. different days, so that it is possible for interested parties to
  1377. attend both.
  1378.  
  1379. An electronic copy of the 1993 NIPS registration brochure is available
  1380. in postscript format via anonymous ftp at helper.systems.caltech.edu
  1381. in /pub/nips/NIPS_93_brochure.ps.Z.  For a hardcopy of the brochure or
  1382. other information, please send a request to nips93@systems.caltech.edu
  1383. or to: NIPS Foundation, P.O. Box 60035, Pasadena, CA 91116-6035.
  1384.  
  1385. Feel free to contact me for more information on the workshop.
  1386.  
  1387.                                 Thomas H. Hildebrandt
  1388.                                 Electrical Engineering & Computer Science
  1389.                                 Lehigh University
  1390.                                 Bethlehem, PA  18015
  1391.                                 Work: (215) 758-4063
  1392.                                 FAX:  (215) 758-6279
  1393.                                 thildebr@athos.eecs.lehigh.edu
  1394.  
  1395.  
  1396. ------------------------------
  1397.  
  1398. End of Neuron Digest [Volume 12 Issue 13]
  1399. *****************************************
  1400. Received: from BUACCA by BUACCA.BU.EDU (Mailer R2.08 PTF009) with BSMTP id
  1401.  3170; Thu, 11 Nov 93 23:06:23 EST
  1402. Received: from noc4.dccs.upenn.edu by BUACCA.BU.EDU (IBM VM SMTP R1.2.1) with
  1403.  TCP; Thu, 11 Nov 93 23:06:19 EST
  1404. Received: from CATTELL.PSYCH.UPENN.EDU by noc4.dccs.upenn.edu
  1405.     id AA01572; Thu, 11 Nov 93 22:52:45 -0500
  1406. Return-Path: <marvit@cattell.psych.upenn.edu>
  1407. Received: from LOCALHOST by cattell.psych.upenn.edu
  1408.     id AA15352; Thu, 11 Nov 93 22:18:05 EST
  1409. Posted-Date: Thu, 11 Nov 93 22:17:00 EST
  1410. From: "Neuron-Digest Moderator" <neuron-request@CATTELL.PSYCH.UPENN.EDU>
  1411. To: Neuron-Distribution:;
  1412. Subject: Neuron Digest V12 #14 (conference NIPS pt 2)
  1413. Reply-To: "Neuron-Request" <neuron-request@CATTELL.PSYCH.UPENN.EDU>
  1414. X-Errors-To: "Neuron-Request" <neuron-request@psych.upenn.edu>
  1415. Organization: University of Pennsylvania
  1416. Date: Thu, 11 Nov 93 22:17:00 EST
  1417. Message-Id: <15343.753074220@cattell.psych.upenn.edu>
  1418. Sender: marvit@cattell.psych.upenn.edu
  1419.  
  1420. Neuron Digest   Thursday, 11 Nov 1993
  1421.                 Volume 12 : Issue 14
  1422.  
  1423. Today's Topics:
  1424.              information on NIPS*93 workshop accommodations
  1425.               Music and Audition at NIPS (1st day at Vail)
  1426.                      NIPS*93 Hybrid Systems Workshop
  1427.               NIPS-93 Workshop on catastrophic interference
  1428.                    NIPS Workshop on Spatial Perception
  1429.                   Post-NIPS Workshop on Robot Learning
  1430.          NIPS*93 Workshop on Stability and Observability/program
  1431.  
  1432.  
  1433. Send submissions, questions, address maintenance, and requests for old
  1434. issues to "neuron-request@psych.upenn.edu". The ftp archives are
  1435. available from psych.upenn.edu (130.91.68.31). Back issues requested by
  1436. mail will eventually be sent, but may take a while.
  1437.  
  1438. ----------------------------------------------------------------------
  1439.  
  1440. Subject: information on NIPS*93 workshop accommodations
  1441. From:    "Michael C. Mozer" <mozer@dendrite.cs.colorado.edu>
  1442. Date:    Tue, 19 Oct 93 12:40:14 -0700
  1443.  
  1444. The NIPS*93 brochure is a bit sketchy concerning accommodations at the
  1445. NIPS workshops, to be held at the Radisson Resort Vail December 2-4.
  1446.  
  1447. To make reservations at the Radisson, call (800) 648-0720.  For general
  1448. information on the resort, the central number is (303) 476-4444.  Reservations
  1449. can also be made by fax:  (303) 476-1647.  And if you would like to let the
  1450. glowing power of a live psychic answer your very personal questions, the
  1451. number is (900) 820-7131.
  1452.  
  1453. Note that rooms will be held for us only until the beginning of November, and
  1454. last year many participants had to sleep in the snow due to lack of foresight
  1455. in making reservations.
  1456.  
  1457. Concerning lift tickets:  Unfortunately, the NIPS brochure was published
  1458. before we were able to obtain this year's lift ticket prices.  The prices have
  1459. increased roughly $5/day over those published in the brochure.  If you wish
  1460. to advance purchase tickets, though, we ask that you send in the amounts
  1461. published in the brochure.  We will collect the difference on site.  (Sorry,
  1462. it's the only feasible way to do recordkeeping at this point.)  Lift tickets
  1463. may also be purchased on site at an additional expense of roughly $1/day.
  1464. Very sorry for the inconvenience.
  1465.  
  1466.  
  1467. Mike Mozer
  1468. NIPS*93 Workshop Chair
  1469.  
  1470.  
  1471. ------------------------------
  1472.  
  1473. Subject: Music and Audition at NIPS (1st day at Vail)
  1474. From:    "E. large" <large@cis.ohio-state.edu>
  1475. Date:    Mon, 25 Oct 93 09:43:53 -0500
  1476.  
  1477.  
  1478. Resonance and the Perception of Musical Meter
  1479.  
  1480. Edward W. Large and John F. Kolen
  1481.  
  1482. The perception of musical rhythm is traditionally described as
  1483. involving, among other things, the assignment of metrical structure to
  1484. rhythmic patterns. In our view, the perception of metrical structure
  1485. is best described as a dynamic process in which the temporal
  1486. organization of musical events entrains the listener in much the same
  1487. way that two pendulum clocks hanging on the same wall synchronize
  1488. their motions so that they tick in lock step. In this talk, we
  1489. re-assess the notion of musical meter, and show how the perception of
  1490. this sort of temporal organization can be modeled as a system of
  1491. non-linearly coupled oscillators responding to musical rhythms.
  1492. Individual oscillators phase- and frequency- lock to components of
  1493. rhythmic patterns, embodying the notion of musical pulse, or beat. The
  1494. collective behavior of a system of oscillators represents a
  1495. self-organized response to rhythmic patterns, embodying a "perception"
  1496. of metrical structure. When exposed to performed musical rhythms the
  1497. system shows the ability to simultaneously perform quantization
  1498. (categorization of temporal intervals), and assignment of metrical
  1499. structure in real time. We discuss implications for psychological
  1500. theories of temporal expectancy, "categorical" perception of temporal
  1501. intervals, and the perception of metrical structure.
  1502.  
  1503.  
  1504. ------------------------------
  1505.  
  1506. Subject: NIPS*93 Hybrid Systems Workshop
  1507. From:    "Michael P. Perrone" <mpp@cns.brown.edu>
  1508. Date:    Mon, 25 Oct 93 10:23:54 -0500
  1509.  
  1510. =====================================================================
  1511.  
  1512.                   NIPS*93 Postconference Workshop
  1513.                         December 4, 1993
  1514.  
  1515.  
  1516.    Pulling It All Together: Methods for Combining Neural Networks
  1517.  
  1518. =====================================================================
  1519.  
  1520. Intended Audience:
  1521.  
  1522.    Those interested in optimization algorithms for improving
  1523.    neural network performance.
  1524.  
  1525.  
  1526. Organizer:
  1527.  
  1528.    Michael P. Perrone, Brown University (mpp@cns.brown.edu)
  1529.  
  1530.  
  1531. Abstract:
  1532.  
  1533.    This workshop will examine current hybrid methods for improving
  1534.    neural network performance.
  1535.  
  1536.    The past several years have seen a tremendous growth in the complexity of
  1537.    the recognition, estimation and control tasks expected of neural networks.
  1538.    In solving these tasks, one is faced with a large variety of learning
  1539.    algorithms and a vast selection of possible network architectures.  After
  1540.    all the training, how does one know which is the best network?  This
  1541.    decision is further complicated by the fact that, even though standard
  1542.    techniques such as MLPs and RBF nets are theoretically sufficient for
  1543.    solving any task, they can be severely limited by problems such as over-
  1544.    fitting, data sparsity and local optima.
  1545.  
  1546.    The usual solution to these problems is a winner-take-all cross-validatory
  1547.    model selection.  However, recent experimental and theoretical work
  1548.    indicates that we can improve performance by considering methods for
  1549.    combining neural networks.
  1550.  
  1551.    This workshop will discuss several such methods including Boosting,
  1552.    Competing Experts, Ensemble Averaging, the GENSEP algorithm, Metropolis
  1553.    algorithms, Stacked Generalization and Stacked Regression.  The issues we
  1554.    will cover in this workshop include Bayesian considerations, the role of
  1555.    complexity, the role of cross-validation integrating a priori knowledge,
  1556.    error orthogonality, task decomposition, network selection techniques,
  1557.    overfitting, data sparsity and local optima.
  1558.  
  1559.    Lively audience participation is encouraged.
  1560.  
  1561.  
  1562. Schedule                                        December 4, 1993
  1563. ========                                        ================
  1564.  
  1565.  
  1566. 7:30-7:35   Opening Remarks
  1567.  
  1568. 7:35-7:55   M. Perrone,  (Brown University)
  1569.             "Averaging Methods: Theoretical Issues and Real World Examples"
  1570.  
  1571. 7:55-8:15   J. Friedman, (Stanford)
  1572.             "A New Approach to Multiple Outputs Using Stacking"
  1573.  
  1574. 8:15-8:35   S. Nowlan,   (Salk Institute)
  1575.             "Competing Experts"
  1576.  
  1577. 8:35-8:55   H. Drucker,  (AT&T)
  1578.             "Boosting Compared to Other Ensemble Methods"
  1579.  
  1580. 8:55-9:30+  Discussion
  1581.  
  1582.  
  1583. 9:30-4:30   FREE TIME
  1584.  
  1585.  
  1586. 4:30-4:50   C. Scofield, (Nestor Inc)
  1587.             "Commercial Applications: Modular Approaches to Real World Tasks"
  1588.  
  1589. 4:50-5:10   W. Buntine,  (NASA Ames Research Center)
  1590.             "Averaging and Probabilistic Networks: Automating the Process"
  1591.  
  1592. 5:10-5:30   D. Wolpert,  (Santa Fe Institute)
  1593.             "Inferring a Function vs. Inferring an Inference Algorithm"
  1594.  
  1595. 5:30-5:50   H. Thodberg, (Danish Meat Research Institute)
  1596.             "Error Bars on Predictions from Deviations among Committee
  1597.             Members (within Bayesian Backprop)"
  1598.  
  1599. 5:50-6:10   S. Hashem,   (Purdue University)
  1600.             "Merits of Combining Neural Networks: Potential Benefits and Risks"
  1601.  
  1602. 6:10-6:30+  Discussion & Closing Remarks
  1603.  
  1604. 7:00        Workshop Wrap-Up (common to all sessions)
  1605.  
  1606. =====================================================================
  1607.  
  1608. General NIPS information and registration:
  1609.  
  1610. An electronic copy of the 1993 NIPS registration brochure is available
  1611. in postscript format via anonymous ftp at helper.systems.caltech.edu
  1612. in /pub/nips/NIPS_93_brochure.ps.Z.
  1613.  
  1614. For a hardcopy of the brochure or other information, please send a
  1615. request to nips93@systems.caltech.edu or to:
  1616.  
  1617.        NIPS Foundation,
  1618.        P.O. Box 60035,
  1619.        Pasadena, CA 91116-6035
  1620.  
  1621. - -----------------------------------------------------------------
  1622. Michael P. Perrone                       Email: mpp@cns.brown.edu
  1623. Institute for Brain and Neural Systems   Tel:   401-863-3920
  1624. Brown University                         Fax:   401-863-3934
  1625. Providence, RI 02912
  1626. - -----------------------------------------------------------------
  1627.  
  1628.  
  1629.  
  1630. ------------------------------
  1631.  
  1632. Subject: NIPS-93 Workshop on catastrophic interference
  1633. From:    Bob French <french@willamette.edu>
  1634. Date:    Mon, 25 Oct 93 09:07:29 -0800
  1635.  
  1636.  
  1637.  
  1638. NIPS-93 Workshop:
  1639. ================
  1640.  
  1641.       CATASTROPHIC INTERFERENCE IN CONNECTIONIST NETWORKS:
  1642.            CAN IT BE PREDICTED, CAN IT BE PREVENTED?
  1643.  
  1644.  
  1645. Date: Saturday, December 4, 1993, at Vail, Colorado
  1646. ====
  1647.  
  1648. Intended audience:    Connectionists, cognitive scientists and
  1649. =================       applications-oriented users of connectionist
  1650.                         networks interested in a better understanding
  1651.                         of:
  1652.                              i) when and why their networks can suddenly
  1653.                                 and completely forget previously learned
  1654.                                 information;
  1655.                             ii) how it is possible to reduce or even
  1656.                                 eliminate this phenomenon.
  1657.  
  1658. Organizer:      Bob French
  1659. =========       Computer Science Department
  1660.                 Willamette University, Salem OR
  1661.                 french@willamette.edu
  1662.  
  1663. Program:
  1664. ========
  1665.    When connectionist networks learn new information, they can
  1666. suddenly and completely forget everything they had previously learned.
  1667. This problem is called catastrophic forgetting or catastrophic
  1668. interference.  Given the demonstrated severity of the problem, it is
  1669. intriguing to note that this problem has to date received very little
  1670. attention.  When new information must be added to an already-trained
  1671. connectionist network, it is currently taken for granted that the
  1672. network will simply cycle through all of the old data again.  Since
  1673. relearning all of the old data is both psychologically implausible as
  1674. well as impractical for very large data sets, is it possible to do
  1675. otherwise?  Can connectionist networks be developed that do not forget
  1676. catastrophically -- or perhaps that do not forget at all -- in the
  1677. presence of new information?  Or is catastrophic forgetting perhaps
  1678. the inevitable price for using fully distributed representations?
  1679. Under what circumstances will a network forget or not forget?
  1680. Further, can the amount of forgetting be predicted with any
  1681. reliability?  These questions are of particular interest to anyone who
  1682. intends to use connectionist networks as a memory/generalization
  1683. device.
  1684.    This workshop will focus on:
  1685.           - the theoretical reasons for catastrophic interference;
  1686.           - the techniques that have been developed to eliminate
  1687. it or to reduce its severity;
  1688.           - the side-effects of catastrophic interference;
  1689.           - the degree to which a priori prediction of catastrophic
  1690. forgetting is or is not possible.
  1691.    As connectionist networks become more and more a part of
  1692. applications packages, the problem of catastrophic interference will
  1693. have to be addressed.  This workshop will bring the audience up to
  1694. date on current research on catastrophic interference.
  1695.  
  1696.  
  1697. Speakers:       Stephan Lewandowsky  (lewan@constellation.ecn.uoknor.edu)
  1698. ========        Department of Psychology
  1699.                 University of Oklahoma
  1700.  
  1701.                 Phil A. Hetherington (het@blaise.psych.mcgill.ca)
  1702.                 Department of Psychology
  1703.                 McGill University
  1704.  
  1705.                 Noel Sharkey (noel@dcs.exeter.ac.uk)
  1706.                 Connection Science Laboratory
  1707.                 Dept. of Computer Science
  1708.                 University of Exeter, U.K.
  1709.  
  1710.                 Bob French  (french@willamette.edu)
  1711.                 Computer Science Department
  1712.                 Willamette University
  1713.  
  1714.  
  1715. Morning session:
  1716. - ---------------
  1717. 7:30 - 7:45     Bob French:  An Introduction to the Problem of
  1718.                 Catastrophic Interference in Connectionist Networks
  1719.  
  1720. 7:45 - 8:15     Stephan Lewandowsky: Catastrophic Interference: Causes,
  1721.                 Solutions, and Side-Effects
  1722.  
  1723. 8:15 - 8:30     Brief discussion
  1724.  
  1725. 8:30 - 9:00     Phil Hetherington:  Sequential Learning in Connectionist
  1726.                 Networks: A Problem for Whom?
  1727.  
  1728. 9:00 - 9:30     General discussion
  1729.  
  1730.  
  1731. Afternoon session
  1732. - -----------------
  1733.  
  1734. 4:30 - 5:00     Noel Sharkey: Catastrophic Interference and
  1735.                 Discrimination.
  1736.  
  1737. 5:00 - 5:15     Brief discussion
  1738.  
  1739. 5:15 - 5:45     Bob French:  Prototype Biasing and the
  1740.                 Problem of Prediction
  1741.  
  1742. 5:45 - 6:30     General discussion and closing remarks
  1743.  
  1744.  
  1745. Below are the abstracts for the talks to be presented in this workshop:
  1746.  
  1747.  
  1748.        CATASTROPHIC INTERFERENCE: CAUSES, SOLUTIONS, AND SIDE-EFFECTS
  1749.                       Stephan Lewandowsky
  1750.                     Department of Psychology
  1751.                      University of Oklahoma
  1752.  
  1753.    I briefly review the causes for catastrophic interference in
  1754. connectionist models and summarize some existing solutions.  I then
  1755. focus on possible trade-offs between resolutions to catastrophic
  1756. interference and other desirable network properties. For example, it
  1757. has been suggested that reduced interference might impair
  1758. generalization or prototype formation.  I suggest that these
  1759. trade-offs occur only if interference is reduced by altering the
  1760. response surfaces of hidden units.
  1761. - --------------------------------------------------------------------------
  1762.  
  1763. SEQUENTIAL LEARNING IN CONNECTIONIST NETWORKS: A PROBLEM FOR WHOM?
  1764.                     Phil A. Hetherington
  1765.                   Department of Psychology
  1766.                      McGill University
  1767.  
  1768.    Training networks in a strictly blocked, sequential manner normally
  1769. results in poor performance because new items overlap with old items
  1770. at the hidden unit layer.  However, catastrophic interference is not a
  1771. necessary consequence of using distributed representations.  First,
  1772. examination by the method of savings demonstrates that much of the
  1773. early information is still retained: Items thought lost can be
  1774. relearned within a couple of trials.  Second, when items are learned
  1775. in a windowed, or overlapped fashion, less interference obtains.  And
  1776. third, when items are presented in a strictly blocked, sequential
  1777. manner to a network that already possesses a relevant knowledge base,
  1778. interference may not occur at all.  Thus, when modeling normal human
  1779. learning there is no catastrophic interference problem.  Nor is there
  1780. a problem when modeling strictly sequential human memory experiments
  1781. with a network that has a relevant knowledge base.  There is only a
  1782. problem when simple, unstructured, tabula rasa networks are expected
  1783. to model the intricacies of human memory.
  1784. - --------------------------------------------------------------------------
  1785.  
  1786.             CATASTROPHIC INTERFERENCE AND DISCRIMINATION
  1787.                          Noel Sharkey
  1788.                  Connection Science Laboratory
  1789.                    Dept. of Computer Science
  1790.                      University of Exeter
  1791.                         Exeter, U.K.
  1792.  
  1793.    Connectionist learning techniques, such as backpropagation, have
  1794. been used increasingly for modelling psychological phenomena.
  1795. However, a number of recent simulation studies have shown that when a
  1796. connectionist net is trained, using backpropagation, to memorize sets
  1797. of items in sequence and without negative exemplars, newly learned
  1798. information seriously interferes with old.  Three converging methods
  1799. were employed to show why and under what circumstances such
  1800. retroactive interference arises.  First, a geometrical analysis
  1801. technique, derived from perceptron research, was introduced and
  1802. employed to determine the computational and representational
  1803. properties of feedforward nets with one and two layers of weights.
  1804. This analysis showed that the elimination of interference always
  1805. resulted in a breakdown of old-new discrimination.  Second, a formally
  1806. guaranteed solution to the problems of interference and discrimination
  1807. was presented as the HARM model and used to assess the relative merits
  1808. of other proposed solutions. Third, two simulation studies were
  1809. reported that assessed the effects of providing nets with experience
  1810. of the experimental task.  Prior knowledge of the encoding task was
  1811. provided to the nets either by block training them in advance or by
  1812. allowing them to extract the knowledge through sequential training.
  1813. The overall conclusion was that the interference and discrimination
  1814. problems are closely related.  Sequentially trained nets employing the
  1815. backpropagation learning algorithm will unavoidably suffer from either
  1816. one or the other.
  1817. - --------------------------------------------------------------------------
  1818.  
  1819.          PROTOTYPE BIASING IN CONNECTIONIST NETWORKS
  1820.                         Bob French
  1821.                    Computer Science Dept.
  1822.                    Willamette University
  1823.  
  1824.    Previously learned representations bias new representations.  If
  1825. subjects are told that a newly encountered object X belongs to an
  1826. already familiar category P, they will tend to emphasize in their
  1827. representation of X features of the prototype they have for the
  1828. category P.  This is the basis of prototype biasing, a technique that
  1829. appears to significantly reduce the effects catastrophic forgetting.
  1830.    The 1984 Congressional Voting Records database is used to
  1831. illustrate prototype biasing.  This database contains the yes-no
  1832. voting records of Republican and Democratic members of Congress in
  1833. 1984 on 16 separate issues.  This database lends itself conveniently
  1834. to the use of a network having 16 "yes-no" input units, a hidden layer
  1835. and one "Republican/Democrat" output node.  A "Republican" prototype
  1836. and a "Democrat" prototype are built, essentially by separately
  1837. averaging over Republican and Democrat hidden-layer representations.
  1838. These prototypes then "bias" subsequent representations of new
  1839. Democrats towards the Democrat prototype and of new Republicans
  1840. towards the Republican prototype.
  1841.    Prototypes are learned by a second, separate backpropagation
  1842. network that associates teacher patterns with their respective
  1843. prototypes.  Thus, ideally, when the "Republican" teacher pattern is
  1844. fed into it, it produces the "Republican" prototype on output.  The
  1845. output from this network is continually fed back to the hidden layer
  1846. of the primary network and is used to bias new representations.
  1847.    Also discussed in this paper are the problems involved in
  1848. predicting the severity of catastrophic forgetting.
  1849.  
  1850.  
  1851.  
  1852.  
  1853.  
  1854.  
  1855.  
  1856. ------------------------------
  1857.  
  1858. Subject: NIPS Workshop on Spatial Perception
  1859. From:    Terry Sejnowski <terry@helmholtz.sdsc.edu>
  1860. Date:    Mon, 25 Oct 93 21:15:43 -0800
  1861.  
  1862. NIPS*93 WORKSHOP ANNOUNCEMENT
  1863.  
  1864. Title:
  1865. Processing of visual and auditory space and its modification by experience.
  1866.  
  1867. Intended Audience:
  1868. Researchers interested in spatial perception, sensory fusion and learning.
  1869.  
  1870. Organizers:
  1871. Josef P. Rauschecker            Terrence Sejnowski
  1872. josef@helix.nih.gov             terry@helmholtz.sdsc.edu
  1873.  
  1874. Program:
  1875.    This workshop will address the question how spatial information is
  1876. represented in the brain, how it is matched and compared by the visual and
  1877. auditory systems, and how early sensory experience influences the
  1878. development of these space representations.
  1879.    We will discuss neurophysiological and computational data from cats,
  1880. monkeys, and owls that suggest how the convergence of different sensory
  1881. space representations may be handled by the brain. In particular, we will
  1882. look at the role of early experience and learning in establishing these
  1883. representations. Lack of visual experience affects space processing in cats
  1884. and owls differently. We will therefore discuss various kinds of plasticity
  1885. in different spatial representations.
  1886.    Half the available time has been reserved for discussion and informal
  1887. presentations. We will encourage lively audience participation.
  1888.  
  1889.  
  1890. Morning Session
  1891.  
  1892. (7:30 - 8:30) Presentations
  1893.  
  1894. Predictive Hebbian learning and sensory fusion
  1895. (Terry Sejnowski)
  1896.  
  1897. A connectionist model of the owl's sound localization system
  1898. (Dan Rosen)
  1899.  
  1900. Intermodal compensatory plasticity of sensory systems
  1901. (Josef Rauschecker)
  1902.  
  1903. 8:30 - 9:30  Discussion
  1904.  
  1905.  
  1906. Afternoon Session
  1907.  
  1908. (4:30 - 5:30)  Presentations
  1909.  
  1910. Neurophysiological processing of visual and auditory space in monkeys
  1911. (Richard Andersen)
  1912.  
  1913. Learning map registration in the superior colliculus with predictive
  1914. Hebbian learning
  1915. (Alex Pouget)
  1916.  
  1917. A neural network model for the detection of heading direction from optic
  1918. flow in the cat's visual system
  1919. (Markus Lappe)
  1920.  
  1921. 5:30 - 6:30  Discussion
  1922.  
  1923. =====================================================================
  1924.  
  1925. General NIPS information and registration:
  1926.  
  1927. An electronic copy of the 1993 NIPS registration brochure is available
  1928. in postscript format via anonymous ftp at helper.systems.caltech.edu
  1929. in /pub/nips/NIPS_93_brochure.ps.Z.
  1930.  
  1931. For a hardcopy of the brochure or other information, please send a
  1932. request to nips93@systems.caltech.edu or to:
  1933.  
  1934.        NIPS Foundation,
  1935.        P.O. Box 60035,
  1936.        Pasadena, CA 91116-6035
  1937.  
  1938.  
  1939. =====================================================================
  1940.  
  1941.  
  1942.  
  1943. ------------------------------
  1944.  
  1945. Subject: Post-NIPS Workshop on Robot Learning
  1946. From:    David Cohn <cohn@psyche.mit.edu>
  1947. Date:    Tue, 26 Oct 93 13:53:43 -0500
  1948.  
  1949. The following workshop will be held on Friday, December 3rd in Vail,
  1950. CO as one of the Post-NIPS workshops. To be added to a mailing list
  1951. for further information about the workshop, send electronic mail to
  1952. "robot-learning-request@psyche.mit.edu".
  1953. - ---------------------------------------------------------------------------
  1954.  
  1955. NIPS*93 Workshop:    Robot Learning II:  Exploration and Continuous Domains
  1956. =================
  1957.  
  1958. Intended Audience:   Researchers interested in robot learning, exploration,
  1959. ==================   and active learning systems in general
  1960.  
  1961. Organizer:           David Cohn (cohn@psyche.mit.edu)
  1962. ==========           Dept. of Brain and Cognitive Sciences
  1963.                      Massachusetts Institute of Technology
  1964.                      Cambridge, MA 02139
  1965. Overview:
  1966. =========
  1967.  
  1968. The goal of this workshop will be to provide a forum for researchers
  1969. active in the area of robot learning and related fields.  Due to the
  1970. limited time available, we will focus on two major issues: efficient
  1971. exploration of a learner's state space, and learning in continuous
  1972. domains.
  1973.  
  1974. Robot learning is characterized by sensor noise, control error,
  1975. dynamically changing environments and the opportunity for learning by
  1976. experimentation.  A number of approaches, such as Q-learning, have
  1977. shown great practical utility learning under these difficult
  1978. conditions.  However, these approaches have only been proven to
  1979. converge to a solution if all states of a system are visited
  1980. infinitely often.  What has yet to be determined is whether we can
  1981. efficiently explore a state space so that we can learn without having
  1982. to visit every state an infinite number of times, and how we are to
  1983. address problems on continuous domains, where there are effectively an
  1984. infinite number of states to be visited.
  1985.  
  1986. This workshop is intended to serve as a followup to last year's
  1987. post-NIPS workshop on machine learning. The two problems to be
  1988. addressed this year were identified as two (of the many) crucial
  1989. issues facing robot learning.
  1990.  
  1991. The morning session of the workshop will consist of short
  1992. presentations discussing theoretical approaches to exploration and to
  1993. learning in continuous domains, followed by general discussion guided
  1994. by a moderator. The afternoon session will center on practical and/or
  1995. heuristic approaches to these problems in the same format.  As time
  1996. permits, we may also attempt to create an updated "Where do we go from
  1997. here?"  list, like that drawn up in last year's workshop.
  1998.  
  1999. Video demos will be encouraged. If feasible, we will attempt to have a
  2000. VCR set up after the workshop to allow for informal demos.
  2001.  
  2002. Preparatory readings from the presenters will be ready by early
  2003. November. To be placed on a list to receive continuing information about
  2004. the workshop (such as where and when the readings appear on-line), send
  2005. email to "robot-learning-request@psyche.mit.edu".
  2006.  
  2007. Tentative Program:
  2008. ==================
  2009. December 3, 1993
  2010.  
  2011. Morning Session: Theoretical Approaches
  2012. - ---------------------------------------
  2013. 7:30-8:30       Andrew Moore, CMU
  2014.                 "The Parti-game approach to exploration"
  2015. synopses of
  2016. different       Leemon Baird, USAF
  2017. approaches      "Reinforcement learning in continuous domains"
  2018. (20 min each)
  2019.                 Juergen Schmidhuber, TUM
  2020.                 Reinforcement-directed information acquisition in
  2021.                 Markov Environments
  2022.  
  2023. 8:30-9:30       Open discussion
  2024.  
  2025. Afternoon Session: Heuristic Approaches
  2026. - ---------------------------------------
  2027. 4:30-5:50       Long-Ji Lin, Siemens
  2028.                 "RatBot: A mail-delivery robot"
  2029. synopses of
  2030. different       Stephan Schaal, MIT
  2031. approaches      "Efficiently exploring high-dimensional spaces"
  2032. (20 min each)
  2033.                 Terry Sanger, MIT/JPL
  2034.                 "Trajectory extension learning"
  2035.  
  2036.                 Jeff Schneider, Rochester
  2037.                 "Learning robot skills in high-dimensional action spaces"
  2038.  
  2039. 5:50-6:30       Open discussion
  2040.  
  2041.  
  2042. ------------------------------
  2043.  
  2044. Subject: NIPS*93 Workshop on Stability and Observability/program
  2045. From:    GARZONM@hermes.msci.memst.edu
  2046. Date:    27 Oct 93 15:29:32 -0600
  2047.  
  2048.  
  2049.                        A day at NIPS*93 on
  2050.                     STABILITY AND OBSERVABILITY
  2051.                  3 December 1993 at Vail, Colorado
  2052.  
  2053. Intended Audience:  nneuroscientists, computer and cognitive
  2054. =================   scientists, neurobiologists, mathematicians/
  2055.                     dynamical systems, electrical engineers, and
  2056.                     anyone interested in questions such as:
  2057.  
  2058.                     * what effects can noise, bounded precision and
  2059.                       uncertainty in inputs, weights and/or
  2060.                       transfer functions have on the i/o
  2061.                       behavior of a neural network?
  2062.                     * what is missed and what is observable in
  2063.                       computer simulations of the networks they
  2064.                       purport to simulate?
  2065.                     * how much architecture can be observed
  2066.                       in the behavior of a network-in-a-box?
  2067.                     * what can be done to improve and/or accelerate
  2068.                       convergence to stable equilibria during
  2069.                       learning and network updates while preserving
  2070.                       the intended dynamics of the process?
  2071. Organizers:
  2072. ==========
  2073.  
  2074.      Fernanda Botelho                   Max Garzon
  2075. botelhof@hermes.msci.memst.edu   garzonm@hermes.msci.memst.edu
  2076. Mathematical Sciences            Institute for Intelligent Systems
  2077.                     Memphis State University
  2078.                     Memphis, TN 38152 U.S.A.
  2079.           [botelhof,garzonm]@hermes.msci.memst.edu
  2080.  
  2081.  
  2082. Program:
  2083. =======
  2084. Following is a (virtually) final schedule. Each talk is scheduled for
  2085. 15 minutes with 5 minutes of interim for questions and comments. One
  2086. or contributed talk might still be added to the schedule (and
  2087. will cut into the panel discussion in the afternoon).
  2088.  
  2089. Morning Session:
  2090. - ---------------
  2091.  
  2092. 7:30-7:50 M. Garzon, Memphis State University, Tennessee
  2093.           Introduction and Overview
  2094.  
  2095. 7:50-8:10 S. Kak, Louisiana State University, Baton Rouge
  2096.           Stability and Observability in Feedback Networks
  2097.  
  2098. 8:10-8:30 S. Piche, Microelectronics Technology Co., Austin, Texas
  2099.           Sensitivity of Neural Networks to Errors
  2100.  
  2101. 8:30-8:50 R. Rojas, Int. Computer Science Institute UCB
  2102.           and Freie Universit\"at Berlin
  2103.           Stability of Learning in Neural Networks
  2104.  
  2105. 8:50-9:10 G. Chauvet and P. Chauvet,
  2106.           Institut de Biologie Th\'eorique, U. d'Angers, France
  2107.           Stability of Purkinje Units in the Cerebellar Cortex
  2108.  
  2109. 9:10-9:30 N. Peterfreund and Y. Baram, Technion, Israel
  2110.           Trajectory Control of Convergent Networks
  2111.  
  2112.  
  2113. Afternoon Session:
  2114. - ------------------
  2115.  
  2116. 4:30-4:50 X. Wang, U. of Southern California and UCLA
  2117.           Consistencies of Stability and Bifurcation
  2118.  
  2119. 4:50-5:10 M. Casey, UCSD, San Diego, California
  2120.           Computation Dynamics in Discrete-time Recurrent Nets
  2121.  
  2122. 5:10-5:30 M. Cohen, Boston University, Massachussets
  2123.           Synthesis of Decision Regions in Dynamical Systems
  2124.  
  2125. 5:30-5:50 F. Botelho, Memphis State University, Tennessee
  2126.           Observability of Discrete and Analog Networks
  2127.  
  2128. 5:50-6:10 U. Levin and K. Narendra,
  2129.           OGI/CSE Portland/Oregon and Yale University,
  2130.           Recursive Identification Using Feedforward Nets
  2131.  
  2132. 6:10-6:30 Panel Discussion
  2133.  
  2134. 7:00      All-workshop wrap-up
  2135.  
  2136.  
  2137. Max Garzon                (preferred)   garzonm@hermes.msci.memst.edu
  2138. Math Sciences                           garzonm@memstvx1.memst.edu
  2139. Memphis State University                Phone: (901) 678-3138/-2482
  2140. Memphis, TN 38152  USA                  Fax:   (901) 678-2480/3299
  2141.  
  2142.  
  2143. ------------------------------
  2144.  
  2145. End of Neuron Digest [Volume 12 Issue 14]
  2146. *****************************************
  2147. Received: from BUACCA by BUACCA.BU.EDU (Mailer R2.08 PTF009) with BSMTP id
  2148.  1660; Sun, 14 Nov 93 17:58:24 EST
  2149. Received: from noc4.dccs.upenn.edu by BUACCA.BU.EDU (IBM VM SMTP R1.2.1) with
  2150.  TCP; Sun, 14 Nov 93 17:58:18 EST
  2151. Received: from CATTELL.PSYCH.UPENN.EDU by noc4.dccs.upenn.edu
  2152.     id AA26421; Sun, 14 Nov 93 17:57:47 -0500
  2153. Return-Path: <marvit@cattell.psych.upenn.edu>
  2154. Received: from LOCALHOST by cattell.psych.upenn.edu
  2155.     id AA07337; Sun, 14 Nov 93 17:14:37 EST
  2156. Posted-Date: Sun, 14 Nov 93 17:13:54 EST
  2157. From: "Neuron-Digest Moderator" <neuron-request@CATTELL.PSYCH.UPENN.EDU>
  2158. To: Neuron-Distribution:;
  2159. Subject: Neuron Digest V12 #15 (books, requests/queries, jobs)
  2160. Reply-To: "Neuron-Request" <neuron-request@CATTELL.PSYCH.UPENN.EDU>
  2161. X-Errors-To: "Neuron-Request" <neuron-request@psych.upenn.edu>
  2162. Organization: University of Pennsylvania
  2163. Date: Sun, 14 Nov 93 17:13:54 EST
  2164. Message-Id: <7326.753315234@cattell.psych.upenn.edu>
  2165. Sender: marvit@cattell.psych.upenn.edu
  2166.  
  2167. Neuron Digest   Sunday, 14 Nov 1993
  2168.                 Volume 12 : Issue 15
  2169.  
  2170. Today's Topics:
  2171.          Book on connectionist modeling of commonsense reasoning
  2172.                      PhD program at Univ of Alabama
  2173.                       Cogneuro society announcement
  2174.               Some informtion required..thanks in advance..
  2175.               Free Convolution Software (Educational Tool)
  2176.                     Combinatorial - Graph information
  2177.                  ANNs in Medicine and Signal processing?
  2178.                        new address and 2 questions
  2179.                           Thanking for replies
  2180.                    NN Parameters input/output control
  2181.                         PostDoctoral Fellowship.
  2182.          NEUROSCIENCE/BIOMEDICAL ENGINEERING FACULTY POSITION BU
  2183.                        Postdoc Position Available
  2184.                            Position available
  2185.                            C Programmer Wanted
  2186.               Post-doc position at LBL Human Genome Center
  2187.  
  2188.  
  2189. Send submissions, questions, address maintenance, and requests for old
  2190. issues to "neuron-request@psych.upenn.edu". The ftp archives are
  2191. available from psych.upenn.edu (130.91.68.31). Back issues requested by
  2192. mail will eventually be sent, but may take a while.
  2193.  
  2194. ----------------------------------------------------------------------
  2195.  
  2196. Subject: Book on connectionist modeling of commonsense reasoning
  2197. From:    rsun@athos.cs.ua.edu (Ron Sun)
  2198. Date:    Fri, 22 Oct 93 14:49:47 -0600
  2199.  
  2200. A book (monograph) on connectionist models is available now from John
  2201. Wiley and Sons, Inc.
  2202.  
  2203. ===================================================================
  2204.   Integrating Rules and Connectionism for Robust Commonsense Reasoning
  2205.  
  2206.       by: Ron Sun
  2207.           Assistant Professor
  2208.           Department of Computer Science
  2209.           The University of Alabama
  2210.           Tuscaloosa, AL 35487
  2211. ===================================================================
  2212.  
  2213. Anyone interested in the book should contact John Wiley and Sons, Inc.
  2214. at   1-800-call-wil
  2215.  
  2216.  
  2217.  
  2218. - ------------------------------------------------------------------
  2219. A brief description is as follows:
  2220.  
  2221. One of the more difficult problems for artificial intelligence research
  2222. is the problem of modeling commonsense reasoning.  Traditional models
  2223. have great difficulties in capturing the flexible and robust nature of
  2224. commonsense reasoning.  This book attempts to tackle this problem  by
  2225. adopting innovative approaches.  In a nutshell, it is concerned with
  2226. understanding and modeling commonsense reasoning with a combination of
  2227. rules and similarities, under a connectionist rubric.
  2228. The book surveys the areas of reasoning, connectionist models, inheritance,
  2229. causality, rule-based systems, and similarity-based reasoning; it introduces
  2230. a new framework and a novel connectionist architecture for modeling
  2231. commonsense reasoning that synthesizes some of these areas.
  2232. Along with this framework, a set of interrelated new ideas regarding modeling
  2233. commonsense reasoning is discussed in the book, which are very relevant to the
  2234. current artificial intelligence and cognitive science research
  2235. and the on-going methodological debate.
  2236.  
  2237. - ------------------------------------------------------------------
  2238. Table of Content
  2239.  
  2240.  Foreword  (by David Waltz, NEC Research Institute)
  2241.  Preface
  2242.  1 Introduction
  2243.  1.1 Overview
  2244.  1.2 Commonsense Reasoning
  2245.  1.3 The Problem of Common Reasoning Patterns
  2246.  1.4 What is the Point?
  2247.  1.5 Some Clarifications
  2248.  1.6 The Organization
  2249.  1.7 Summary
  2250.  
  2251.  2 Accounting for Commonsense Reasoning: A Framework with Rules and Similarities
  2252.  2.1 Overview
  2253.  2.2 Examples of Reasoning
  2254.  2.3 Patterns of Reasoning
  2255.  2.4 Brittleness of Rule-Based Reasoning
  2256.  2.5 Towards a Solution
  2257.  2.6 Some Reflections on Rules and Connectionism
  2258.  2.7 Summary
  2259.  
  2260.  3 A Connectionist Architecture for Commonsense Reasoning
  2261.  3.1 Overview
  2262.  3.2 A Generic Architecture
  2263.  3.3 Fine-Tuning --- from Constraints to Specifications
  2264.  3.4 Summary
  2265.  3.5 Appendix
  2266.  
  2267.  4 Evaluations and Experiments
  2268.  4.1 Overview
  2269.  4.2 Accounting for the Reasoning Examples
  2270.  4.3 Evaluations of the Architecture
  2271.  4.4 Systematic Experiments
  2272.  4.5 Choice, Focus and Context
  2273.  4.6 Reasoning with Geographical Knowledge
  2274.  4.7 Applications to Other Domains
  2275.  4.8 Summary
  2276.  4.9 Appendix: Determining Similarities and CD representations
  2277.  
  2278.  5 More on the Architecture: Logic and Causality
  2279.  5.1 Overview
  2280.  5.2 Causality in General
  2281.  5.3 Shoham's Causal Theory
  2282.  5.4 Defining FEL
  2283.  5.5 Accounting for Commonsense Causal Reasoning
  2284.  5.6 Determining Weights
  2285.  5.7 Summary
  2286.  5.8 Appendix: Proofs For Theorems
  2287.  
  2288.  6 More on the Architecture: Beyond Logic
  2289.  6.1 Overview
  2290.  6.2 Further Analysis of Inheritance
  2291.  6.3 Analysis of Interaction in Representation
  2292.  6.4 Knowledge Acquisition, Learning, and Adaptation
  2293.  6.5 Summary
  2294.  
  2295.  7 An Extension: Variables and Bindings
  2296.  7.1 Overview
  2297.  7.2 The Variable Binding Problem
  2298.  7.3 First-Order FEL
  2299.  7.4 Representing Variables
  2300.  7.5 A Formal Treatment
  2301.  7.6 Dealing with Difficult Issues
  2302.  7.7 Compilation
  2303.  7.8 Correctness
  2304.  7.9 Summary
  2305.  7.10 Appendix
  2306.  
  2307.  8 Reviews and Comparisons
  2308.  8.1 Overview
  2309.  8.2 Rule-Based Reasoning
  2310.  8.3 Case-Based Reasoning
  2311.  8.4 Connectionism
  2312.  8.5 Summary
  2313.  
  2314.  9 Conclusions
  2315.  9.1 Overview
  2316.  9.2 Some Accomplishments
  2317.  9.3 Lessons Learned
  2318.  9.4 Existing Limitations
  2319.  9.5 Future Directions
  2320.  9.6 Summary
  2321.  
  2322.  References
  2323. - ---------------------------------------------------------------------
  2324.  
  2325.  
  2326.  
  2327. ------------------------------
  2328.  
  2329. Subject: PhD program at Univ of Alabama
  2330. From:    rsun@athos.cs.ua.edu (Ron Sun)
  2331. Date:    Fri, 22 Oct 93 14:52:25 -0600
  2332.  
  2333. The Ph.D program in Computer Science at the University of Alabama is now
  2334. accepting applications for 1994. Graduate assistantships and other forms
  2335. of financial support for graduate students are available. Prospective
  2336. graduate students interested in AI, neural networks, and other related
  2337. areas are especially encouraged to apply.
  2338.  
  2339. The Department of Computer Science at UA has identified graduate
  2340. education and research as its primary missions.  The department is
  2341. conducting high-quality research in a number of areas:
  2342.  
  2343. Artificial Intelligence
  2344.         connectionist models and neural networks
  2345.         knowledge representation and common sense reasoning
  2346.         cognitive modeling
  2347.         learning
  2348.         fuzzy logic and expert systems
  2349.  
  2350. Algorithms
  2351.         graph algorithms and parallel computation
  2352.  
  2353. Database Systems
  2354.         real-time databases and information mining
  2355.  
  2356. Human Interfaces
  2357.  
  2358. Software Engineering
  2359.         object-oriented development, verification and validation
  2360.  
  2361.  
  2362. For detailed information and the graduate brochure, contact:
  2363.  
  2364.   Graduate Program Admission
  2365.   Department of Computer Science
  2366.   The Univeristy of Alabama
  2367.   Tuscaloosa, AL 35487
  2368.   csdept@cs.ua.edu
  2369.  
  2370. - -----------------------------------------------------------------
  2371. The Computer Science Department was established in 1978 within the College
  2372. of Engineering.  Degrees are awarded at the Bachelor's, Master's and Ph.D.
  2373. The program is accredited by the Computer Science Accreditation Board.
  2374. The Department has access to a wide range of computing
  2375. facilities, including the Department's own network of workstations.
  2376. The University is a member of the Alabama Supercomputer Network, with access
  2377. to the Cray X-MP/24.
  2378.  
  2379. Funding is available from the department, the University, and a wide
  2380. range of external sources, including the National Science Foundation,
  2381. DARPA, the US Air Force, the US Army, and so on.
  2382.  
  2383. The University of Alabama is a comprehensive research university
  2384. enrolling some 19,000 students.  It is one of the oldest state
  2385. universities in the nation and recently celebrated its sesquicentennial.
  2386. The University offers programs in many areas, ranging from
  2387. the sciences and engineering to business administration, education and
  2388. the fine arts.
  2389. - -----------------------------------------------------------------
  2390.  
  2391.  
  2392. Dr. Ron Sun
  2393. Department of Computer Science            phone: (205) 348-6363
  2394. The University of Alabama                 fax:   (205) 348-8573
  2395. Tuscaloosa, AL 35487                      rsun@cs.ua.edu
  2396.  
  2397.  
  2398.  
  2399.  
  2400. ------------------------------
  2401.  
  2402. Subject: Cogneuro society announcement
  2403. From:    Kimball Collins <kpc@ptolemy.arc.nasa.gov>
  2404. Date:    Sun, 24 Oct 93 14:21:13 -0800
  2405.  
  2406. A tip from Mark Wessinger:
  2407.  
  2408. - ------- Start of forwarded message -------
  2409. ************************************************************
  2410. ANNOUNCING THE FORMATION
  2411. OF  A NEW SCIENTIFIC SOCIETY
  2412. AND CALL FOR ABSTRACTS
  2413.  
  2414. COGNITIVE  NEUROSCIENCE  SOCIETY
  2415. ************************************************************
  2416.  
  2417. Inaugural Meeting
  2418. March  27-29, 1994
  2419. Fairmont Hotel
  2420. San Francisco, CA
  2421.  
  2422. Scheduled Symposia:
  2423.  
  2424. Sunday Mar 27th
  2425.  
  2426. Mike Gazzaniga, (Chair) "Cognitive Neuroscience"
  2427. (w/ Bizzi, Konishi, Newsome)
  2428.  
  2429. Daniel Schacter (Chair) "Memory Systems"" (w/ Nadel, Shapiro, Squire,
  2430. Tulving)
  2431.  
  2432. Monday Mar 28th
  2433. Mike Posner (Chair)  "Plasticity and Acquisition of Expertise" (w/ Neville,
  2434. Curran, Petersen, McCandliss)
  2435.  
  2436. Terrence Sejnowski "Adaptive Cortical Representations" (w/ Merzenich,
  2437. Ramachandran, Montague)
  2438.  
  2439. Tuesday Mar 29th
  2440. George R. Mangun "Mechanisms and Models of Attention" (w/ Treisman,
  2441. Hillyard, Reuter-Lorenz, Corbetta)
  2442.  
  2443. Richard Andersen "Modeling Methods for Neural Algorithms" (w/ Koch, Mead,
  2444. Douglas)
  2445.  
  2446.  
  2447. Abstracts for Poster Presentations must be received
  2448. by January 1, 1994
  2449.  
  2450. Meeting Administration/Reg Fee $25:  Poster Abstract Fee $15
  2451.  
  2452.  
  2453. Hotel Reservation (meeting hotel only)
  2454. Fairmont Hotel
  2455. 950 Mason Street
  2456. San Francisco, CA 94108
  2457. Tel. (800) 527-4727 (reservations)
  2458. Tel. (415) 772-5000
  2459. FAX (415) 772-5013
  2460. (Room rate for double or single $125 for meeting)
  2461.  
  2462. For more information write:
  2463.  
  2464. Cognitive Neuroscience Society
  2465. Attn: Flo Batt
  2466. Center for Neuroscience, University of California
  2467. Davis, CA  95616 USA
  2468. FAX  (916)757-8827
  2469. email:  fabatt@ucdavis.edu
  2470.  
  2471. or see:
  2472. Journal of Cognitive Neuroscience, Fall Issue 1993 for
  2473. Abstract form and information.
  2474.  
  2475. ****************************************************
  2476.  
  2477. - ------- End of forwarded message -------
  2478.  
  2479.  
  2480. ------------------------------
  2481.  
  2482. Subject: Some informtion required..thanks in advance..
  2483. From:    SANYAL@tifrvax.tifr.res.in
  2484. Date:    Fri, 29 Oct 93 10:25:00 +0430
  2485.  
  2486.                     HELP REQUIRED
  2487.  
  2488. I am looking for complete details of the following  proceedings:
  2489.  
  2490. 1. Proceedings of the First International Workshop on Frontiers in
  2491. Handwriting Recognition, held in Montreal, Canada.
  2492.  
  2493. 2. Proceedings of the Second International Workshop on Frontiers in
  2494. Handwriting Recognition, held in Bonas, France.
  2495.  
  2496. 3. Proceedings of the Third International Workshop on Frontiers in
  2497. Handwriting Recognition, held in Buffalo, NY, USA.
  2498.  
  2499. We are  interested in procuring these proceedings, therefore we require
  2500. details such as : Publisher, Editor name, price and other relevant
  2501. details.
  2502.  
  2503.  
  2504. Thanks in advance.
  2505. With warm regards,
  2506.  
  2507. S Sanyal.
  2508.  
  2509.  
  2510. From:
  2511. Dr S Sanyal,
  2512. CSC Group,
  2513. TIFR,
  2514. Bombay - 400005, INDIA.
  2515. email:  sanyal@tifrvax.tifr.res.in
  2516.                 OR
  2517.         sanyal@tifrvax.bitnet
  2518.  
  2519.  
  2520.  
  2521.  
  2522.  
  2523. ------------------------------
  2524.  
  2525. Subject: Free Convolution Software (Educational Tool)
  2526. From:    kk@ee.umr.edu
  2527. Date:    Fri, 29 Oct 93 12:23:40 -0600
  2528.  
  2529. Contributed by: Kurt Kosbar <kk@ee.umr.edu>
  2530.  
  2531.                       FREE EDUCATIONAL SOFTWARE PACKAGE
  2532.  
  2533.                              P. C. CONVOLUTION
  2534.  
  2535. P.C. convolution is a educational software package that graphically
  2536. demonstrates the convolution operation.  It runs on IBM PC type computers
  2537. using DOS 4.0 or later.  It is currently being used at over 70 schools
  2538. throughout the world in departments of Electrical Engineering, Physics,
  2539. Mathematics, Chemical Engineering, Chemistry, Crystallography, Geography,
  2540. Geophysics, Earth Science, Acoustics, Phonetics & Linguistics, Biology,
  2541. Astronomy, Ophthalmology, Communication Sciences, Business, Aeronautics,
  2542. Biomechanics, Hydrology and Experimental Psychology.
  2543.  
  2544. Anyone may download a demonstration version of this software via anonymous
  2545. ftp from 131.151.4.11 (file name /pub/pc_conv.zip)
  2546.  
  2547. University instructors my obtain a free, fully operational version by
  2548. contacting Dr. Kurt Kosbar at the address listed below.
  2549.  
  2550. Dr. Kurt Kosbar
  2551. 117 Electrical Engineering Building, University of Missouri - Rolla
  2552. Rolla, Missouri, USA 65401, phone: (314) 341-4894
  2553. e-mail:  kk@ee.umr.edu
  2554.  
  2555.  
  2556. ------------------------------
  2557.  
  2558. Subject: Combinatorial - Graph information
  2559. From:    ARDESHIR <CIVAB@VAXA.HERIOT-WATT.AC.UK>
  2560. Date:    Thu, 04 Nov 93 10:32:00 +0000
  2561.  
  2562. Some time ago I sent a requet asking for references relating to graph
  2563. partitioning, matching and combinatorial optimization using neural nets.
  2564. I wish to sincerely thank those few who responded in particular M.
  2565. Ohlsson, C. Peterson, B.Sderberg, T. Grossman, A. Jagota and R. Lister.
  2566.  
  2567. Using the received information and my own research the following references
  2568. have been compiled which I can only provide ftp addresses for some of them.
  2569.  
  2570. The following publications may be collected via ftp.
  2571.  
  2572. - --- ftp address: ftp.cs.buffalo.edu   -> /users/jagota  ----------
  2573.  
  2574. Arun Jagota, Efficiently Approximating Max-Clique in a Hopfield-style
  2575. Network, 1992.
  2576.  
  2577. Arun Jagota, Optimization by Reduction to Maximum Clique, 1993
  2578.  
  2579. Arun Jagota, A new Hopfield-style Network for Content-addressable Mmories,
  2580. 1990.
  2581.  
  2582. Arun Jagota, The Hopfield-style Network as a Maximal-Clique Graph Machine,
  2583. 1990.
  2584.         ----------------------------------------------
  2585.  
  2586.  
  2587. - ---ftp address: cis.ohio-state.edu   -> /pub/neuroprose  ----------
  2588.  
  2589. There is a wide range of papers relating to neural networks which you may
  2590. wish to choose from this address.
  2591.         ----------------------------------------------
  2592.  
  2593.  
  2594. - ---ftp address: svr-ftp.eng.cam.ac.uk  -> /reports   --------------
  2595.  
  2596. S. V. Aiyer, Solving Combinatorial Optimization Problems Using Neural Networks
  2597. with Application in Speech Recognition, 1989. (Note:This is a PhD thesis over
  2598. 100 pages).
  2599.  
  2600. A. H. Gee, Problem Solving with Optimization Networks, 1993. (Note This is a
  2601. PhD thesis over 130 pages).
  2602.  
  2603. As well as above thises, there are several other papers which you may collect
  2604. by ftp.
  2605.         --------------------------------------------------
  2606.  
  2607.  
  2608.  
  2609. The following is a list of publications regarding graphs and combinatorial
  2610. optimization using neural nets which I am not aware of their accessibility
  2611. by ftp service and you may have to order them through your library, etc.
  2612.  
  2613. N. Ohlsson, C. Peterson and B. Sderberg, Neural Networks for Optimization
  2614. with Inequality Constraints - the Knapsack Problem. Lund Preprint LU TP 92-11
  2615. (submitted to Neural Computation) (1991).
  2616.  
  2617. M. Ohlsson, C. Peterson and A. Yuille, Track Finding with Deformable
  2618. Templates - The Elastic Arms Approach, Lund Preprint LU TP 91-27 (to appear
  2619. in Computer Physics Communications) 1991.
  2620.  
  2621. L.Gisl
  2622. n, B. Sderberg, and C. Peterson, Scheduling High Schools with Neural
  2623. Networks, Lund Preprint LU TP 91-9 (submitted to Neural Computation) 1991.
  2624.  
  2625. L.Gisl
  2626. n, B. Sderberg, and C. Peterson, Teachers and Classes with Neural
  2627. Networks, International Journal of Neural Systems 1, 167, 1989.
  2628.  
  2629. C. Peterson, Parallel Distributed Approaches to Combinatorial Optimization
  2630. Problems - Benchmark Studies on TSP, Neural Computations 2, 261, 1990.
  2631.  
  2632. C. Peterson and B. Sderberg, A New Method for Mapping Optimization Problems
  2633. onto Neural Networks, NATURE 326, 689, 1987.
  2634.  
  2635. C. Peterson, J. R. Anderson, Neural Networks and NP-complete Optimization
  2636. Problems; A Performance Study on the Graph Bisection Problem, Complex Systems
  2637. Publications, Inc. 1988.
  2638.  
  2639.  You may find other works from the authors from the reference sections of
  2640.  the above papers.
  2641.         ---------------------------------------------------
  2642.  
  2643.  
  2644.  
  2645. T. Grossman, Applying the INN model to the MaxClique Problem, LA-UR-93-3082,
  2646. 1993.
  2647.  
  2648. T. Grossman and A. Jagota, On the Equivalence of Two Hopfield-type Networks,
  2649. in the proc. of ICNN, pp. 1063-1068, (IEEE) 1993.
  2650.  
  2651. T. Grossman, The INN model as an associative memory, submitted, and PhD.
  2652. thesis, Weizmann Inst. of Science, 1992.
  2653.         -------------------------------------------------------
  2654.  
  2655. D. E. Van Den Bout, T. K. Miller, III, Graph Partitioning Using Annealed
  2656. Neural Networks, IEEE Transactions on Neural Networks, Vol. 1, No. 2,
  2657. June 1990.
  2658.  
  2659.   and you may find some more references from the above paper(s).
  2660.         -----------------------------------------------------------
  2661.  
  2662.  
  2663. Although I am certian of many other publications, however I hope the above
  2664. mentioned references would be useful to everyone.
  2665.  
  2666. I myself have recently began researching about combinatorial optimization,
  2667. graph partitioning and matching using neural nets in order to apply them
  2668. in structural engineering problems.
  2669.  
  2670. Thank You.
  2671.  
  2672. Ardeshir Bahreininejad
  2673. Civil & Offshore Engineering Dept.
  2674. Heriot-Watt University
  2675. Riccarton, Edinburgh
  2676. EH14  4AS, Scotland
  2677. U.K.
  2678.  
  2679.  
  2680. ------------------------------
  2681.  
  2682. Subject: ANNs in Medicine and Signal processing?
  2683. From:    reksio!p011bb@reksio.pb.bialystok.pl (bartlomiej bulkszas)
  2684. Date:    Thu, 04 Nov 93 16:44:17 -0500
  2685.  
  2686. Bartlomiej Bulkszas
  2687. Institut of Informatics
  2688. Zwierzyniecka 4/1012
  2689. 15-333 Bialystok
  2690.  
  2691. E-mail: p011bb@reksio.pb.bialystok.pl
  2692.  
  2693.         I would like to find some information on the aplications of neural
  2694. networks to Medicine and Signal Procesing. If there are books, jurnals,
  2695. papers, etc in this field, please let me know about it.  Moreover, any
  2696. ftp address where there are documents, papers avaible about this field is
  2697. wellcome.
  2698.  
  2699. Thank you for your time,
  2700. Bart Bulkszas
  2701.  
  2702.  
  2703. ------------------------------
  2704.  
  2705. Subject: new address and 2 questions
  2706. From:    "Martin Vojacek" <VOJACEK@dolni-gw.ms.mff.cuni.cz>
  2707. Organization: MFF, Charles University, Prague
  2708. Date:    Thu, 04 Nov 93 18:00:26 -0500
  2709.  
  2710. Can somebody help me?
  2711. I'm Martin Vojacek from Prague.
  2712.  
  2713. Exists another E-mail conference about neural nets or neural cells
  2714. (from mathematical, biological, theoretical, practical,... view)?
  2715.  
  2716. Do you know anything reference about literature of a threshold
  2717. adaptation, computing or learning of threshold?
  2718.  
  2719. Thank you very much for your effort.
  2720. Cooperation welcome.
  2721.  
  2722. Martin Vojacek    vojacek@dolni.ms.mff.cuni.cz
  2723.                   vojacek@CsPgUk11.Bitnet
  2724.  
  2725.  
  2726.  
  2727. ------------------------------
  2728.  
  2729. Subject: Thanking for replies
  2730. From:    RAUL HECTOR GALLARD <gallardr@unslfm.edu.ar>
  2731. Date:    Mon, 08 Nov 93 09:32:09 -0200
  2732.  
  2733. This mail is to publicly acknowledge to the coleagues that replied our
  2734. announcement requiring experienced lecturers and researchers for
  2735. postgraduate courses at the Universidad Nacional de San Luis, Argentina.
  2736. A significant number of diverse proposals arrived here, some of them
  2737. lamentably out of deadlines, others submitted now to the faculty board
  2738. for selection.  Independently of the choose that will be done, I want to
  2739. remark that important contacts have been established by means of the NNs
  2740. digest service and we are very grateful also for that.
  2741.  
  2742. Sincerily yours
  2743.  
  2744. Prof. Raul Gallard.
  2745.  
  2746.  
  2747.                                         Raul Hector Gallard
  2748.                                         gallardr@unslfm.edu.ar
  2749.  
  2750.  
  2751.  
  2752. ------------------------------
  2753.  
  2754. Subject: NN Parameters input/output control
  2755. From:    Documentation_CRIQ@Infopuq.UQuebec.CA
  2756. Date:    Mon, 08 Nov 93 16:02:24 -0500
  2757.  
  2758. We are looking for information and technical papers describing
  2759. experimental and or new development of NEURAL NETWORKS OR EXPERT SYSTEM
  2760. OR ADAPTIVE CONTROL AND COMPUTER particulary adapted to a FLOTATION
  2761. CIRCUIT in the MINERAL PROCESSING INDUSTRY. All other information
  2762. covering areas where they can be applied such as in CHEMICAL INDUSTRY
  2763. will be appreciated.
  2764.  
  2765. Rejean Corriveau
  2766. CRIQ- Canada
  2767. Documentation_criq@infopuq.uquebec.ca
  2768.  
  2769.  
  2770.  
  2771. ------------------------------
  2772.  
  2773. Subject: PostDoctoral Fellowship.
  2774. From:    P.Refenes@cs.ucl.ac.uk
  2775. Date:    Tue, 26 Oct 93 21:14:23 -0100
  2776.  
  2777.  
  2778.                  Postdoctoral Fellowship
  2779.  
  2780. CALL FOR APPLICATIONS for a post doctoral research
  2781.                    fellowship on
  2782.  
  2783.           NONLINEAR MODELLING IN FINANCIAL ENGINEERING
  2784.  
  2785. at: London Business School, Department of Decision Science.
  2786.  
  2787.  
  2788.  
  2789.  
  2790. Position: for upto 2 years (beginning Fall 1994; stipend:
  2791.            $50,000 pa).
  2792.  
  2793. London Business School has been selected as one of the European
  2794. Host Institutes for the CEC Human Capital and Mobility Programme
  2795. and has been awarded a number of postdoctoral fellowships. The
  2796. NeuroForecasting Unit at the faculty of Decision Sciences has a
  2797. strong involvement in the application of neural networks to
  2798. financial engineering including asset pricing, tactical asset
  2799. allocation, equity investment, forex, etc. and would like to put
  2800. forward a candidate with a research proposal in neural network
  2801. analysis including parameter significance estimation in
  2802. multi-variate datasets, sensitivity analysis, and/or non-linear
  2803. dimentionality reduction in the context of factor models for
  2804. equity investment.
  2805.  
  2806. Candidates must hold a PhD in non-linear modelling or related
  2807. areas and have a proven research record. Normal HCM rules apply
  2808. i.e. only CEC nationals (excluding UK residents) are eligible.
  2809. CEC nationals that have been working overseas for the past two
  2810. years also qualify.
  2811.  
  2812. Interested candidates should send their curriculum vitae and
  2813. a summary of their research interests to:
  2814.  
  2815. Dr A. N. Refenes
  2816. NeuroForecasting Unit
  2817. Department of Decision Science
  2818. London Business School
  2819. Sussex Place, Regents Park,
  2820. London NW1 4SA, UK
  2821. Tel: ++ 44 (71) 262 50 50
  2822. Fax: ++ 44 (71) 724 78 75
  2823.  
  2824.  
  2825.  
  2826. ------------------------------
  2827.  
  2828. Subject: NEUROSCIENCE/BIOMEDICAL ENGINEERING FACULTY POSITION BU
  2829. From:    "Lucia M. Vaina" <VAINA@buenga.bu.edu>
  2830. Date:    Tue, 26 Oct 93 21:21:14 -0500
  2831.  
  2832.  
  2833. BOSTON UNIVERSITY, Department of Biomedical Engineering has openings
  2834. for SEVERAL tenure-track faculty positions at the junior level.
  2835. Coumputational Vision, Medical Image Processing, Neuroengineering, are
  2836. among the areas of interest.
  2837.  
  2838.  For details see the add in Science-- October 22 1993.
  2839.  
  2840.   Applicants should submit a CV, a one page summary of research
  2841. interests, and names and addresses of at least three references to:
  2842. Herbert Voigt Ph.D.  Chairman Department of Biomedical Engineering
  2843. College of Engineering Boston University 44 Cummington str Boston, Ma
  2844. 02215-2407
  2845.  
  2846. Consideration will be given to applicants who already hold a PHD in a
  2847. field of engineering or related field (e.g. physics) and have had at least
  2848. one year of postdoctoral experience.The target starting date for
  2849. positions is September 1, 1994. Considerations of applications will
  2850. begin on November 1, 1993 and will continue until the positions are filled.
  2851.  
  2852.  
  2853.  
  2854.  
  2855. ------------------------------
  2856.  
  2857. Subject: Postdoc Position Available
  2858. From:    "Guido.Bugmann 2 Kerby Place"
  2859.  <gbugmann@school-of-computing.plymouth.ac.uk>
  2860. Date:    Fri, 29 Oct 93 12:58:01 +0000
  2861.  
  2862. Dear Connectionists,
  2863. following position has been advertised
  2864. recently:
  2865. - ---------------------------------------------
  2866. University of Plymouth, Faculty of Technology.
  2867.  
  2868. School of Computing
  2869. Neurodynamics Research Group
  2870.  
  2871. Postdoctoral Research Fellow
  2872. (Salary within the range 13.140 - 17.286 pounds/year)
  2873.  
  2874. In this SERC-funded, three-year project based at
  2875. the University of Plymouth, you will carry out an
  2876. investigation into a novel, biologically-inspired,
  2877. neural network based learning control system.
  2878. The research will be carried out under the joint
  2879. supervision of Professor Mike Denham (University
  2880. of Plymouth) and Professor John G. Taylor (Kings
  2881. College London).
  2882.  
  2883. You should have, or be in the process of completing,
  2884. a PhD, either in a closely related area of research,
  2885. eg neural systems, adaptive learning systems, control
  2886. systems, or in a relevant discipline, eg mathematics,
  2887. cognitive sciences, but in the later case you must be
  2888. able to demonstrate a strong interest in neural/adaptive
  2889. systems and control systems.
  2890.  
  2891. Please send a CV and two names of references
  2892. before the 15 November 1993 to:
  2893.  
  2894. Prof. Mike Denham
  2895. Neurodynamics Research Group
  2896. School of Computing
  2897. University of Plymouth
  2898. Plymouth PL4 8AA
  2899. United Kingdom
  2900.  
  2901. Phone (+44) 752 23 25 47/41
  2902. Fax (+44) 752 23 25 40
  2903.  
  2904. - -------------------------------
  2905.  
  2906. With my best regards
  2907.  
  2908. Dr. Guido Bugmann
  2909. (same address as above)
  2910. Phone (+44) 752 23 25 66/41
  2911. Fax (+44) 752 23 25 40
  2912. email: gbugmann@sc.plym.ac.uk
  2913.  
  2914.  
  2915.  
  2916. ------------------------------
  2917.  
  2918. Subject: Position available
  2919. From:    janetw@cs.uq.oz.au
  2920. Date:    Mon, 01 Nov 93 14:57:39 -0500
  2921.  
  2922. The following advert is for a position in the Department of
  2923. Computer Science, at the University of Queensland, at the
  2924. highest level of the academic scale.  It is open to any area
  2925. of computing, and hence may interest researchers in cognitive
  2926. science and/or neural networks.
  2927.  
  2928. UQ has a strong inter-disciplinary cognitive science program
  2929. between the departments of computer science, psychology, linguistics
  2930. and philosophy, and neural network research groups in computer
  2931. science, psychology and engineering.
  2932.  
  2933. The University is one of the best in Australia, and Brisbane has a
  2934. delightful climate, situated on the coastal plain between the
  2935. mountains and the sea.
  2936.  
  2937. Inquiries can be directed to Professor Andrew Lister, as mentioned
  2938. below, or I am happy to answer informal questions about the Department,
  2939. University or other aspects of academic life in Brisbane.
  2940.  
  2941. Janet Wiles
  2942. Departments of Computer Science and Psychology
  2943. University of Queensland  QLD  4072  AUSTRALIA
  2944. email: janetw@cs.uq.oz.au
  2945.  
  2946. - -------------------------------
  2947.  
  2948.                          UNIVERSITY OF QUEENSLAND
  2949.  
  2950.                        PROFESSOR OF COMPUTER SCIENCE
  2951.  
  2952.  
  2953. The successful applicant will have an outstanding record of research
  2954. leadership and achievement in Computer Science.  Teaching experience is
  2955. expected, as is demonstrable capacity for collaboration with industry
  2956. and attraction of external funds.
  2957.  
  2958. The appointee will be expected to contribute substantially to
  2959. Departmental research, preferably in a field which can exploit or
  2960. extend current strengths.  He or she will also be expected to teach at
  2961. both undergraduate and postgraduate levels, and to contribute to
  2962. Departmental policy making.  Capacity and willingness to assume the
  2963. Department headship at an appropriate time will be an important
  2964. selection criterion.
  2965.  
  2966. The Department is one of the strongest in Australia with 26 full-time
  2967. academic staff, including 5 other full Professors, over 40 research
  2968. staff, and 23 support staff.  There are around 500 equivalent full-time
  2969. students, with a large postgraduate school including 55 PhD students.
  2970.  
  2971. The Department has been designated by the Federal Government as the Key
  2972. Centre for Teaching and Research in Software Technology.  The
  2973. Department also contains the Software Verification Research Centre, a
  2974. Special Research Centre of the Australian Research Council, and is a
  2975. major partner in the Cooperative Research Centre for Distributed
  2976. Systems Technology.
  2977.  
  2978. Current research strengths include formal methods and tools for
  2979. software development, distributed systems, information systems,
  2980. programming languages, cognitive science, and algorithm design and
  2981. analysis.
  2982.  
  2983. Salary: $77,900 plus superannuation.  A market loading may be payable
  2984. in some circumstances.
  2985.  
  2986. For further information please contact the Head of Department,
  2987. Professor Andrew Lister (lister@cs.uq.oz.au), 07-365 3168 or
  2988. international +61 7 365 3168.
  2989.  
  2990. Applications: (4 copies) should be made to the Director, Personnel
  2991. Services, The University of Queensland, St Lucia, Queensland 4072,
  2992. Australia.
  2993.  
  2994. Closing Date: 10 Jan 1994
  2995.  
  2996.  
  2997.  
  2998.  
  2999. ------------------------------
  3000.  
  3001. Subject: C Programmer Wanted
  3002. From:    "Eric B. Baum" <eric@research.nj.nec.com>
  3003. Date:    Fri, 05 Nov 93 16:30:44 -0500
  3004.  
  3005. C Programmer Wanted.
  3006. Note- this job may be more interesting than most postdocs. May pay better
  3007. too, if successful applicant has substantial commercial experience.
  3008.  
  3009. Prerequisites: Experience in getting large programs to work.
  3010.                Some mathematical sophistication, *at least* equivalent
  3011.                of good undergraduate degree in math, physics, theoretical
  3012.                computer science, or related field.
  3013. Salary: Depends on experience.
  3014. Job: Implementing various novel algorithms. For example, implementing an
  3015.      entirely new approach to game tree search. Conceivably this could
  3016.      lead into a major effort to produce a championship chess program
  3017.      based on novel strategy, and on novel use of learning algorithms.
  3018.      Another example, implementing novel approaches to Travelling Salesman
  3019.      Problem. Another example, experiments with RTDP (TD learning.)
  3020.      Algorithms are *not* exclusively neural.
  3021.  
  3022.      These projects are at the leading edge of algorithm research,
  3023.      so expect the work to be both interesting and challenging.
  3024.  
  3025.      Term-contract position.
  3026.  
  3027. To apply please send cv, cover letter and list of references to:
  3028.      Eric Baum, NEC Research Institute, 4 Independence Way, Princeton NJ 08540,
  3029.      or PREFERABLY by internet to eric@research.nj.nec.com
  3030.  
  3031.  
  3032. Equal Opportunity Employer M/F/D/V
  3033.  
  3034.  
  3035. - -------------------------------------
  3036. Eric Baum
  3037. NEC Research Institute, 4 Independence Way, Princeton NJ 08540
  3038. PHONE:(609) 951-2712, FAX:(609) 951-2482, Inet:eric@research.nj.nec.com
  3039.  
  3040.  
  3041.  
  3042.  
  3043. ------------------------------
  3044.  
  3045. Subject: Post-doc position at LBL Human Genome Center
  3046. From:    ed@rtsg.ee.lbl.gov (Ed Theil)
  3047. Date:    Thu, 11 Nov 93 12:05:03 -0800
  3048.  
  3049. Post-Doctoral Appointment - one year, with possibility of renewal
  3050.  
  3051. DUTIES - Essential
  3052. Working under general supervision in the Human Genome Computing Group, develop
  3053. new approaches and algorithms for improved automatic and interactive DNA
  3054. base calling  using DSP or neural net techniques.
  3055. Responsibilities will include writing interface software or
  3056. enhancing existing programs for seamless data acquisition from commercial
  3057. sequencers; close interaction with biologists engaged in producing
  3058. the sequence data; adaptation and development of analytical and graphical
  3059. software, including artificial neural networks for base calling and analysis;
  3060. collaboration with other investigators working in this area; writing
  3061. documentation, research reports and papers.
  3062.  
  3063.  
  3064. QUALIFICATIONS: - Essential
  3065. Candidates must have strong analytical skills and a background in math,
  3066. statistics or the demonstrated equivalent; significant experience using Unix
  3067. workstations and the C programming language; excellent interpersonal
  3068. skills to engage in effective communication and collaboration.
  3069. Must be able to demonstrate a high level of
  3070. accomplishment on comparable scientific projects.
  3071. Candidates must have a Ph.D. in a relevant scientific field for this position.
  3072.  
  3073. - - Desirable:
  3074. A background in modern biology, especially genetics or molecular biology;
  3075. working knowledge of or experience in the Human Genome Project,
  3076. especially issues associated with automatic base calling;
  3077. previous experience programming and using neural networks;
  3078. prior work with C++, Smalltalk or other object-oriented programming languages.
  3079.  
  3080. SALARY RANGE:  upper 30's to low 40's.
  3081.  
  3082. LOCATION:  Lawrence Berkeley Laboratory is a DOE-funded National Laboratory
  3083. operated by the University of California in the hills above
  3084. the Berkeley campus.
  3085.  
  3086. PROJECT:  LBL's Genome Computing Group works with biologists,
  3087.  instrumentation engineers, and other computer scientists at LBL and around the
  3088.  world to develop and support tools  for genome resea
  3089. rch.
  3090.  
  3091. CONTACT:  Dr. Edward Theil by e-mail via address above, or
  3092.                 M/S 46A-1123
  3093.                 Lawrence Berkeley Laboratory
  3094.                 Berkeley, CA  94720
  3095.  
  3096.  
  3097.  
  3098. ------------------------------
  3099.  
  3100. End of Neuron Digest [Volume 12 Issue 15]
  3101. *****************************************
  3102. Received: from BUACCA by BUACCA.BU.EDU (Mailer R2.08 PTF009) with BSMTP id
  3103.  1748; Sun, 14 Nov 93 18:44:16 EST
  3104. Received: from noc4.dccs.upenn.edu by BUACCA.BU.EDU (IBM VM SMTP R1.2.1) with
  3105.  TCP; Sun, 14 Nov 93 18:44:13 EST
  3106. Received: from CATTELL.PSYCH.UPENN.EDU by noc4.dccs.upenn.edu
  3107.     id AA28434; Sun, 14 Nov 93 18:43:36 -0500
  3108. Return-Path: <marvit@cattell.psych.upenn.edu>
  3109. Received: from LOCALHOST by cattell.psych.upenn.edu
  3110.     id AA08573; Sun, 14 Nov 93 18:18:52 EST
  3111. Posted-Date: Sun, 14 Nov 93 18:18:13 EST
  3112. From: "Neuron-Digest Moderator" <neuron-request@CATTELL.PSYCH.UPENN.EDU>
  3113. To: Neuron-Distribution:;
  3114. Subject: Neuron Digest V12 #16 (conferences)
  3115. Reply-To: "Neuron-Request" <neuron-request@CATTELL.PSYCH.UPENN.EDU>
  3116. X-Errors-To: "Neuron-Request" <neuron-request@psych.upenn.edu>
  3117. Organization: University of Pennsylvania
  3118. Date: Sun, 14 Nov 93 18:18:13 EST
  3119. Message-Id: <8568.753319093@cattell.psych.upenn.edu>
  3120. Sender: marvit@cattell.psych.upenn.edu
  3121.  
  3122. Neuron Digest   Sunday, 14 Nov 1993
  3123.                 Volume 12 : Issue 16
  3124.  
  3125. Today's Topics:
  3126.         CONGRESS: COMPUTATIONAL MEDICINE AND PUBLIC HEALTH (long)
  3127.                           CFP -- IEEE APCCAS'94
  3128.                    IEEE ANNs for Signal Processing CFP
  3129.  
  3130.  
  3131. Send submissions, questions, address maintenance, and requests for old
  3132. issues to "neuron-request@psych.upenn.edu". The ftp archives are
  3133. available from psych.upenn.edu (130.91.68.31). Back issues requested by
  3134. mail will eventually be sent, but may take a while.
  3135.  
  3136. ----------------------------------------------------------------------
  3137.  
  3138. Subject: CONGRESS: COMPUTATIONAL MEDICINE AND PUBLIC HEALTH (long)
  3139. From:    mwitten@hermes.chpc.utexas.edu
  3140. Date:    Tue, 14 Sep 93 13:04:47 -0600
  3141.  
  3142.  ** NOTE CHANGES IN SUBMISSION AND REGISTRATION DEADLINES **
  3143.  
  3144.                 FIRST WORLD CONGRESS
  3145.       ON COMPUTATIONAL MEDICINE, PUBLIC HEALTH AND
  3146.                      BIOTECHNOLOGY
  3147.                     24-28 April 1994
  3148.                    Hyatt Regency Hotel
  3149.                      Austin, Texas
  3150. - ----- (Feel Free To Cross Post This Announcement) ----
  3151.  
  3152. 1.0 CONFERENCE OVERVIEW: With increasing frequency, computational
  3153. sciences are being exploited as a means with which to investigate
  3154. biomedical processes at all levels of complexity; from molecular to
  3155. systemic to demographic. Computational instruments are now used, not only
  3156. as exploratory tools but also as diagnostic and prognostic tools. The
  3157. appearance of high performance computing environments has, to a great
  3158. extent, removed the problem of increasing the biological reality of the
  3159. mathematical models. For the first time in the history of the field,
  3160. practical biological reality is finally within the grasp of the
  3161. biomedical modeler. Mathematical complexity is no longer as serious an
  3162. issue as speeds of computation are now of the order necessary to allow
  3163. extremely large and complex computational models to be analyzed.  Large
  3164. memory machines are now routinely available.  Additionally, high speed,
  3165. efficient, highly optimized numerical algorithms are under constant
  3166. development.  As these algorithms are understood and improved upon, many
  3167. of them are transferred from software implementation to an implementation
  3168. in the hardware itself; thereby further enhancing the available
  3169. computational speed of current hardware. The purpose of this congress is
  3170. to bring together a transdisciplinary group of researchers in medicine,
  3171. public health, computer science, mathematics, nursing, veterinary
  3172. medicine, ecology, allied health, as well as numerous other disciplines,
  3173. for the purposes of examining the grand challenge problems of the next
  3174. decades. This will be a definitive meeting in that it will be the first
  3175. World Congress of its type and will be held as a follow-up to the very
  3176. well received Workshop On High Performance Computing In The Life Sciences
  3177. and Medicine held by the University of Texas System Center For High
  3178. Performance Computing in 1990.
  3179.  
  3180. Young scientists (graduate students, postdocs, etc.)
  3181. are encouraged to attend and to
  3182. present their work in this increasingly interesting
  3183. discipline. Funding is being solicited from NSF, NIH,
  3184. DOE, Darpa, EPA, and private foundations, as well as
  3185. other sources to assist in travel support and in the
  3186. offsetting of expenses for those unable to attend
  3187. otherwise. Papers, poster presentations, tutorials,
  3188. focused topic workshops,  birds of a feather groups,
  3189. demonstrations, and other suggestions are also
  3190. solicited.
  3191.  
  3192. 2.0 CONFERENCE SCOPE AND TOPIC AREAS: The Congress
  3193. has a broad scope. If you are not sure
  3194. whether or not your subject fits the Congress
  3195. scope, contact the conference organizers at one
  3196. of the addresses below.
  3197.  
  3198. Subject areas include but are not limited to:
  3199. *Visualization/Sonification
  3200.  --- medical imaging
  3201.  --- molecular visualization as a clinical
  3202.      research tool
  3203.  --- simulation visualization
  3204.  --- microscopy
  3205.  --- visualization as applied to problems
  3206.      arising in computational molecular
  3207.      biology and genetics or other non-traditional
  3208.      disciplines
  3209.  --- telemedicine
  3210. *Computational Molecular Biology and Genetics
  3211.  --- computational ramifications of clinical
  3212.      needs in the Human Genome, Plant Genome,
  3213.      and Animal Genome Projects
  3214.  --- computational and grand challenge problems in
  3215.      molecular biology and genetics
  3216.  --- algorithms and methodologies
  3217.  --- issues of multiple datatype databases
  3218. *Computational Pharmacology, Pharmacodynamics,
  3219.     Drug Design
  3220. *Computational Chemistry as Applied to Clinical Issues
  3221. *Computational Cell Biology, Physiology,
  3222.     and Metabolism
  3223.  --- Single cell metabolic models (red blood cell)
  3224.  --- Cancer models
  3225.  --- Transport models
  3226.  --- Single cell interaction with external factors
  3227.      models (laser, ultrasound, electrical stimulus)
  3228. *Computational Physiology and Metabolism
  3229.  --- Renal System
  3230.  --- Cardiovascular dynamics
  3231.  --- Liver function
  3232.  --- Pulmonary dynamics
  3233.  --- Auditory function, coclear dynamics, hearing
  3234.  --- Reproductive modeling: ovarian dynamics,
  3235.      reproductive ecotoxicology, modeling the
  3236.      hormonal cycle
  3237.  --- Metabolic Databases and metabolic models
  3238. *Computational Demography, Epidemiology, and
  3239.     Statistics/Biostatistics
  3240.  --- Classical demographic, epidemiologic,
  3241.      and biostatistical modeling
  3242.  --- Modeling of the role of culture, poverty,
  3243.      and other sociological issues as they
  3244.      impact healthcare
  3245.  --- Morphometrics
  3246. *Computational Disease Modeling
  3247.  --- AIDS
  3248.  --- TB
  3249.  --- Influenza
  3250.  --- Statistical Population Genetics Of Disease
  3251.      Processes
  3252.  --- Other
  3253. *Computational Biofluids
  3254.  --- Blood flow
  3255.  --- Sperm dynamics
  3256.  --- Modeling of arteriosclerosis and related
  3257.      processes
  3258. *Computational Dentistry, Orthodontics, and
  3259.     Prosthetics
  3260. *Computational Veterinary Medicine
  3261.  --- Computational issues in modeling non-human
  3262.      dynamics such as equine, feline, canine dynamics
  3263.      (physiological/biomechanical)
  3264. *Computational Allied Health Sciences
  3265.  --- Physical Therapy
  3266.  --- Neuromusic Therapy
  3267.  --- Respiratory Therapy
  3268. *Computational Radiology
  3269.  --- Dose modeling
  3270.  --- Treatment planning
  3271. *Computational Surgery
  3272.  --- Simulation of surgical procedures in VR worlds
  3273.  --- Surgical simulation as a precursor to surgical
  3274.      intervention
  3275.  --- The Visible Human
  3276. *Computational Cardiology
  3277. *Computational Nursing
  3278. *Computational Models In Chiropractice
  3279. *Computational Neurobiology and Neurophysiology
  3280.  --- Brain modeling
  3281.  --- Single neuron models
  3282.  --- Neural nets and clinical applications
  3283.  --- Neurophysiological dynamics
  3284.  --- Neurotransmitter modeling
  3285.  --- Neurological disorder modeling (Alzheimer's
  3286.      Disease, for example)
  3287.  --- The Human Brain Project
  3288. *Computational Models of Psychiatric and Psychological
  3289.     Processes
  3290. *Computational Biomechanics
  3291.  --- Bone Modeling
  3292.  --- Joint Modeling
  3293. *Computational Models of Non-traditional Medicine
  3294.  --- Acupuncture
  3295.  --- Other
  3296. *Computational Issues In Medical Instrumentation
  3297.  Design and Simulation
  3298.  --- Scanner Design
  3299.  --- Optical Instrumentation
  3300. *Ethical issues arising in the use of computational
  3301.  technology in medical diagnosis and simulation
  3302. *The role of alternate reality methodologies
  3303.  and high performance environments in the medical and
  3304.  public health disciplines
  3305. *Issues in the use of high performance computing
  3306.  environments in the teaching of health science
  3307.  curricula
  3308. *The role of high performance environments
  3309.  for the handling of large medical datasets (high
  3310.  performance storage environments, high performance
  3311.  networking, high performance medical records
  3312.  manipulation and management, metadata structures
  3313.  and definitions)
  3314. *Federal and private support for transdisciplinary
  3315.  research in computational medicine and public health
  3316.  
  3317. 3.0 CONFERENCE COMMITTEE
  3318.  
  3319. *CONFERENCE CHAIR: Matthew Witten, UT System Center
  3320. For High Performance Computing, Austin, Texas
  3321. m.witten@chpc.utexas.edu
  3322.  
  3323. *CURRENT CONFERENCE DIRECTORATE:
  3324. Regina Monaco, Mt. Sinai Medical Center
  3325. Dan Davison, University of Houston
  3326. Chris Johnson, University of Utah
  3327. Lisa Fauci, Tulane University
  3328. Daniel Zelterman, University of Minnesota Minneapolis
  3329. James Hyman, Los Alamos National Laboratory
  3330. Richard Hart, Tulane University
  3331. Dennis Duke, SCRI-Florida State University
  3332. Sharon Meintz, University of Nevada Los Vegas
  3333. Dean Sittig, Vanderbilt University
  3334. Dick Tsur, UT System CHPC
  3335. Dan Deerfield, Pittsburgh Supercomputing Center
  3336. Istvan Gyori, University of Veszprem (Hungary)
  3337. Don Fussell, University of Texas at Austin
  3338. Ken Goodman, University Of Miami School of Medicine
  3339. Martin Hugh-Jones, Louisiana State University
  3340. Stuart Zimmerman, MD Anderson Cancer Research Center
  3341. John Wooley, DOE
  3342. Sylvia Spengler, University of California Berkeley
  3343. Robert Blystone, Trinity University
  3344. Gregory Kramer, Santa Fe Institute
  3345. Franco Celada, NYU Medical Center
  3346. David Robinson, NIH, NHLBI
  3347. Jane Preson, MCC
  3348. Peter Petropoulos, Brooks Air Force Base
  3349. Marcus Pandy, University of Texas at Austin
  3350. George Bekey, University of Southern California
  3351. Stephen Koslow, NIH, NIMH
  3352. Fred Bookstein, University of Michigan Ann Arbor
  3353. Dan Levine, University of Texas at Arlington
  3354. Richard Gordon, University of Manitoba (Canada)
  3355. Stan Zeitz, Drexel University
  3356. Marcia McClure, University of Nevada Las Vegas
  3357. Renato Sabbatini, UNICAMP/Brazil (Brazil)
  3358. Hiroshi Tanaka, Tokyo Medical and Dental University (Japan)
  3359. Shusaku Tsumoto, Tokyo Medical and Dental University (Japan)
  3360.  
  3361. Additional conference directorate members are
  3362. being added and will be updated on the anonymous
  3363. ftp list as they agree.
  3364.  
  3365. 4.0 CONTACTING THE CONFERENCE COMMITTEE: To contact
  3366. the congress organizers for any reason use any of the
  3367. following pathways:
  3368.  
  3369. ELECTRONIC MAIL - compmed94@chpc.utexas.edu
  3370.  
  3371. FAX (USA)       - (512) 471-2445
  3372.  
  3373. PHONE (USA)     - (512) 471-2472
  3374.  
  3375. GOPHER: log into the University of Texas System-CHPC
  3376. select the Computational Medicine and Allied Health
  3377. menu choice
  3378.  
  3379. ANONYMOUS FTP: ftp.chpc.utexas.edu
  3380.                cd /pub/compmed94
  3381. POSTAL:
  3382.             Compmed 1994
  3383.       University of Texas System CHPC
  3384.             Balcones Research Center
  3385.             10100 Burnet Road, 1.154CMS
  3386.             Austin, Texas 78758-4497
  3387.  
  3388. 5.0 SUBMISSION PROCEDURES: Authors must submit 5
  3389. copies of a single-page 50-100 word abstract clearly
  3390. discussing the topic of their presentation. In
  3391. addition, authors must clearly state their choice of
  3392. poster, contributed paper, tutorial, exhibit, focused
  3393. workshop or birds of a feather group along with a
  3394. discussion of their presentation. Abstracts will be
  3395. published as part of the preliminary conference
  3396. material. To notify the congress organizing committee
  3397. that you would like to participate and to be put on
  3398. the congress mailing list, please fill out and return
  3399. the form that follows this announcement.  You may use
  3400. any of the contact methods above. If you wish to
  3401. organize a contributed paper session, tutorial
  3402. session, focused workshop, or birds of a feather
  3403. group, please contact the conference director at
  3404. mwitten@chpc.utexas.edu . The abstract may be submitted
  3405. electronically to  compmed94@chpc.utexas.edu  or
  3406. by mail or fax. There is no official format.
  3407.  
  3408.  
  3409. 6.0 CONFERENCE DEADLINES AND FEES: The following deadlines
  3410. should be noted:
  3411.  
  3412.      1 November  1993 - Notification of intent to organize
  3413.                         a special session
  3414.  
  3415.      15 December 1993 - Abstracts for talks/posters/
  3416.                         workshops/birds of a feather
  3417.                         sessions/demonstrations
  3418.  
  3419.      15 January  1994 - Notification of acceptance of
  3420.                         abstract
  3421.  
  3422.      15 February 1994 - Application for financial aid
  3423.  
  3424.      1 April     1994 - Registration deadline
  3425.                         (includes payment of all fees)
  3426.  
  3427. Fees include lunches for three days, all conference
  3428. registration materials, the reception, and the sit
  3429. down banquet:
  3430.  
  3431.         $400.00 Corporate
  3432.         $250.00 Academic
  3433.         $150.00 Student
  3434.  
  3435. Students are required to submit verification of student
  3436. status. The verification of academic status form appears
  3437. appended to the registration form in this announcement.
  3438.  
  3439. Because financial aid may be available for minority
  3440. students, faculty, and for individuals from declared
  3441. minority institutions, you may indicate that you are
  3442. requesting financial aid as a minority individual.
  3443. Additionally, we anticipate some support for women to
  3444. attend. Application for financial aid is also appended
  3445. to the attached form.
  3446.  
  3447.  
  3448. 7.0 CONFERENCE PRELIMINARY DETAILS AND ENVIRONMENT
  3449.  
  3450. LOCATION: Hyatt Regency Hotel, Austin, Texas, USA
  3451. DATES:    24-28 April 1994
  3452.  
  3453. The 1st World Congress On Computational Medicine,
  3454. Public Health, and Biotechnology will be held at the
  3455. Hyatt Regency Hotel, Austin, Texas located in
  3456. downtown Austin on the shores of Town Lake, also
  3457. known as the Colorado River. The Hyatt Regency has
  3458. rooms available for the conference participants at
  3459. a special rate of $79.00/night for single or double
  3460. occupancy, with a hotel tax of 13%. The Hyatt accepts
  3461. American Express, Diner's Club, Visa, MasterCard,
  3462. Carte Blanche, and Discover credit cards. This room
  3463. rate will be in effect until 9 April 1994 or until
  3464. the block of rooms is full. We recommend that you make
  3465. your reservations as soon as possible. You may make
  3466. your reservations by calling (512) 477-1234 or by
  3467. returning the enclosed reservation form. Be certain
  3468. to mention that you are attending the First World
  3469. Congress On Computational Medicine, Public Health,
  3470. and Biotechnology if you make your reservations by
  3471. telephone.
  3472.  
  3473. The hotel is approximately, five miles (15 minutes
  3474. from Robert Mueller Airport). The Hyatt offers
  3475. courtesy limousine service to and from the airport
  3476. between the hours of 6:00am and 11:00pm. You may call
  3477. them from the airport when you arrive. If you choose
  3478. to use a taxi, expect to pay approximately $8.00.
  3479. Automobiles may be rented, at the airport, from most
  3480. of the major car rental agencies. However, because of
  3481. the downtown location of the Congress and access to
  3482. taxis and to bus service, we do not recommend that you
  3483. rent an auto unless you are planning to drive
  3484. outside of the city.
  3485.  
  3486. Should you not be able to find an available room
  3487. at the Hyatt Regency, we have scheduled an "overflow"
  3488. hotel, the Embassy Suites, which is located directly
  3489. across the street from the Hyatt Regency. If, due to
  3490. travel expense restrictions, you are unable to stay
  3491. at either of these two hotels, please contact the
  3492. conference board directly and we will be more than
  3493. happy to find a hotel near the conference site that
  3494. should accommodate your needs.
  3495.  
  3496. Austin, the state capital, is renowned for its natural
  3497. hill-country beauty and an active cultural scene.
  3498. Several hiking and jogging trails are within walking
  3499. distance of the hotel, as well as opportunities for a
  3500. variety of aquatic sports. From the Hyatt, you can
  3501. "Catch a Dillo" downtown, taking a ride on our
  3502. delightful inner-city, rubber-wheeled trolley system.
  3503. In Austin's historic downtown area, you can take a
  3504. free guided tour through the State Capitol Building,
  3505. constructed in 1888. Or, you can visit the Governor's
  3506. Mansion, recognized as one of the finest examples of
  3507. 19th Century Greek Revival architecture and housing
  3508. every Texas governor since 1856. Downtown you will
  3509. find the Old Bakery and Emporium, built by Swedish
  3510. immigrant Charles Lundberg in 1876 and the Sixth
  3511. Street/Old Pecan Street Historical District - a
  3512. seven-block renovation of Victorian and native stone
  3513. buildings, now a National Registered Historic District
  3514. containing more than 60 restaurants, clubs, and
  3515. shops to enjoy. The Laguna Gloria Art Museum, the
  3516. Archer M. Huntington Art Gallery, the LBJ Library and
  3517. Museum, the Neill-Cochran Museum House, and the Texas
  3518. Memorial Museum are among Austin's finest museums.
  3519. The Umlauf Sculpture Garden, has become a major
  3520. artistic attraction. Charles Umlauf's sculptured works
  3521. are placed in a variety of elegant settings under a
  3522. canopy of trees. The Zilker Gardens contains many
  3523. botanical highlights such as the Rose Garden, Oriental
  3524. Garden, Garden of the Blind, Water Garden and more.
  3525. Unique to Austin is a large population of Mexican
  3526. free-tailed bats which resides beneath the Congress
  3527. Avenue Bridge. During the month of April, the Highland
  3528. Lakes Bluebonnet Trail celebrates spring's wildflowers
  3529. (a major attraction) as this self-guided tour winds
  3530. through the surrounding region of Austin and nearby
  3531. towns (you will need to rent a car for this one).
  3532.  
  3533. Austin offers a number of indoor shopping malls in
  3534. every part of the city; The Arboretum, Barton Creek
  3535. Square, Dobie Mall, and Highland Mall, to name a few.
  3536. Capital Metro, Austin's mass transit system, offers
  3537. low cost transportation throughout Austin. Specialty
  3538. shops, offering a wide variety of handmade crafts and
  3539. merchandise crafted by native Texans, are scattered
  3540. throughout the city and surrounding areas.
  3541.  
  3542. Dining out in Austin, you will have choices of
  3543. American, Chinese, Authentic Mexican, Tex-Mex,
  3544. Italian, Japanese, or nearly any other type of cuisine
  3545. you might wish to experience, with price ranges that
  3546. will suit anyone's budget. Live bands perform in
  3547. various nightclubs around the city and at night spots
  3548. along Sixth Street, offering a range of jazz, blues,
  3549. country/Western, reggae, swing, and rock music.
  3550.  
  3551. Day temperatures will be in the 80-90(degrees F) range
  3552. and fairly humid. Evening temperatures have been known
  3553. to drop down into the 50's (degrees F). Cold weather
  3554. is not expected so be sure to bring lightweight
  3555. clothing with you. Congress exhibitor and vendor
  3556. presentations are also being planned.
  3557.  
  3558. 8.0 CONFERENCE ENDORSEMENTS AND SPONSORSHIPS:
  3559. Numerous potential academic sponsors have been
  3560. contacted. Currently negotiations are underway
  3561. for sponsorship with SIAM, AMS, MAA, IEEE, FASEB, and
  3562. IMACS. Additionally AMA and ANA continuing medical
  3563. education support is being sought. Information
  3564. will be updated regularly on the anonymous ftp
  3565. site for the conference (see above). Currently,
  3566. funding has been generously supplied by the following
  3567. agencies:
  3568.  
  3569. University of Texas System - CHPC
  3570. U.S. Department of Energy
  3571.  
  3572. ================== REGISTRATION FORM ===============
  3573.  
  3574. (Please list your name below as it will appear on badge.)
  3575. First Name :
  3576.  
  3577. Middle Initial (if available):
  3578.  
  3579. Family Name:
  3580.  
  3581. Your Professional Title:
  3582.  
  3583.        [ ]Dr.
  3584.        [ ]Professor
  3585.        [ ]Mr.
  3586.        [ ]Mrs.
  3587.        [ ]Ms.
  3588.        [ ]Other:__________________
  3589.  
  3590. Office Phone (desk):
  3591.  
  3592. Home/Evening Phone (for emergency contact):
  3593.  
  3594. Fax:
  3595.  
  3596. Electronic Mail (Bitnet):
  3597.  
  3598. Electronic Mail (Internet):
  3599.  
  3600. Postal Address:
  3601.        Institution or Center:
  3602.        Building Code:
  3603.        Mail Stop:
  3604.        Street Address1:
  3605.        Street Address2:
  3606.        City:
  3607.        State:
  3608.        Zip or Country Code:
  3609.        Country:
  3610.  
  3611. Please list your three major interest areas:
  3612.  
  3613.        Interest1:
  3614.        Interest2:
  3615.        Interest3:
  3616.  
  3617. Registration fee:                       $____________
  3618. Late fee $50 (if after April 1, 1994)   $____________
  3619.  
  3620. **IF UT AUSTIN, PLEASE PROVIDE YOUR:
  3621. UNIVERSITY ACCT. #:     ______________________
  3622. UNIVERSITY ACCT. TITLE: ______________________
  3623. NAME OF ACCT. SIGNER:   ______________________
  3624. =====================================================
  3625.  
  3626.                       VERIFICATION OF STUDENT STATUS
  3627.  
  3628. Name:
  3629.  
  3630. Mailing Address:
  3631.  
  3632.  
  3633. University at which you are a student:
  3634.  
  3635. What level student(year):
  3636.  
  3637. Your student id number:
  3638.  
  3639. Name of your graduate or postdoctoral advisor:
  3640.  
  3641. Telephone number for your advisor:
  3642.  
  3643. By filling in this section, I agree that I am electronically
  3644. signing my signature to the statement that I am currently
  3645. a student at the above university.
  3646.  
  3647.  
  3648. =======================================================
  3649.                       REQUEST FOR FINANCIAL AID
  3650.  
  3651. Name:
  3652.  
  3653.  
  3654. Mailing Address:
  3655.  
  3656.  
  3657. I request financial assistance under one or more
  3658. of the following categories:
  3659.  
  3660. [ ] Student (You must fill out the Verification of Student
  3661.              Status Section in order to be considered for
  3662.              financial aid under this category)
  3663.  
  3664. [ ] Academic
  3665.  
  3666.  
  3667. [ ] Minority
  3668.  
  3669.         [ ] Female
  3670.         [ ] Black
  3671.         [ ] Hispanic
  3672.         [ ] Native American Indian
  3673.         [ ] Other
  3674.  
  3675. This form is not meant to invade your personal privacy in
  3676. any fashion. However, some of the grant funds are targeted
  3677. at specific ethnic/minority groups and need to be expended
  3678. appropriately. None of these forms will be in any way
  3679. released to the public. And, after the congress, all of
  3680. the financial aid forms will be destroyed. No records will
  3681. be kept of ethnic or racial backgrounds.
  3682.  
  3683. If you have any questions concerning financial aid support,
  3684. please contact Matthew Witten at the above addresses.
  3685. ==============================================================
  3686.  
  3687.  
  3688.  
  3689. ------------------------------
  3690.  
  3691. Subject: CFP -- IEEE APCCAS'94
  3692. From:    cww@15k.ee.nthu.edu.tw (Cheng-Wen Wu)
  3693. Date:    Tue, 02 Nov 93 10:06:13 +0800
  3694.  
  3695.                         Second Call For Papers
  3696.  
  3697.                               APCCAS'94
  3698.                     IEEE ASIA-PACIFIC CONFERENCE ON
  3699.                          CIRCUITS AND SYSTEMS
  3700.                             Dec. 5-8, 1994
  3701.                          Grand Hotel, Taipei
  3702.  
  3703. THEMES
  3704.   Circuits and Systems in Communication and Signal Processing
  3705.  
  3706. SOLICITED TOPICS
  3707.   Analog and Active Filters, Adaptive Filters, Digital Filters,
  3708.   Speech Processing, Video Signal Processing, HDTV Coding,
  3709.   Communication Circuits, High Speed Electronics,
  3710.   Neural Network Applications, B-ISDN,
  3711.   Broadband Switching, Video Communication Networks,
  3712.   Fiber to the Home,
  3713.   Mobile and Personal Communications,
  3714.   VLSI for Communications, CAD for VLSI,
  3715.   Communication Problems in Power Systems
  3716.  
  3717. CO-SPONSORED BY
  3718.   IEEE Circuits and Systems Society,
  3719.   IEEE Taipei Section,
  3720.   IEEE Communications Society,
  3721.   IEEE Signal Processing Society
  3722.  
  3723. INCORPORATING
  3724.   National Chiao Tung University,
  3725.   National Taiwan University,
  3726.   National Tsing Hua University,
  3727.   and Local Institutes
  3728.  
  3729. TIME TABLE
  3730.   Deadline for submission: May 1, 1994
  3731.   Notification of acceptance: July 31, 1994
  3732.   Camera-ready copy: September 15, 1994
  3733.  
  3734.   Prospective authors are invited to submit 6 copies of completed
  3735.   manuscript in English, not longer than 20 A4 or 8.5" X 11" pages
  3736.   to one of the Technical Program Co-chairs:
  3737.  
  3738.   Dr. Tomonori Aoyama
  3739.   Executive Manager
  3740.   Intellectual Property Department
  3741.   NTT, 1-6, Uchisaiwai-cho
  3742.   1-Chome Chiyoda-ku, Tokyo 100, Japan
  3743.   Fax:81-3-3509-3509
  3744.   E-mail:tomonori@ntttsd.ntt.jp
  3745.  
  3746.   Prof. Che-Ho Wei
  3747.   National Chiao Tung University
  3748.   Center for Telecommunications Research
  3749.   Engineering Building 4, Hsin-Chu, Taiwan
  3750.   Tel/Fax:+886-35-723283
  3751.   E-mail:chwei@cc.nctu.edu.tw
  3752.  
  3753.   Tutorial sessions will be organized on the day before the
  3754.   conference.
  3755.   Proposals are invited and can be submitted to (before May 1, 1994):
  3756.  
  3757.   Prof. C. Bernard Shung
  3758.   Department of Electronics Engineering
  3759.   National Chiao Tung University
  3760.   Hsin-Chu, Taiwan
  3761.   Fax:+886-35-724361
  3762.   E-mail:shung@johann.ee.nctu.edu.tw
  3763.  
  3764.   Proposal for special sessions may be submitted to (before May
  3765.   1,1994):
  3766.  
  3767.   Prof. Soo-Chang Pei
  3768.   Department of Electrical Engineering
  3769.   National Taiwan University
  3770.   Taipei, Taiwan
  3771.   Tel:+886-2-363-5251
  3772.   Fax:+886-2-363-8247
  3773.  
  3774. ORGANIZATION COMMITTEE
  3775.   General Conference Chairperson
  3776.   Dr. Chung-Yu Wu, National Chiao Tung Univ., Taiwan
  3777.  
  3778.   Technical Program Co-chairs
  3779.   Dr. Tomonori Aoyama, NTT, Japan
  3780.   Dr. Che-Ho Wei, National Chiao Tung Univ., Taiwan
  3781.  
  3782.   Special Sessions Chairperson
  3783.   Dr. Soo-Chang Pei, National Taiwan Univ., Taiwan
  3784.  
  3785.   Tutorial Chairperson
  3786.   Dr. C. Bernard Shung, National Chiao Tung Univ., Taiwan
  3787.  
  3788.   Local Arrangement Chairperson
  3789.   Dr. Chein-Wei Jen, National Chiao Tung Univ., Taiwan
  3790.  
  3791.   Finance Chairperson
  3792.   Dr. Wen-Zen Shen, National Chiao Tung Univ., Taiwan
  3793.  
  3794.   Publications Chairperson
  3795.   Dr. Youn-Long Lin, National Tsing Hua Univ., Taiwan
  3796.  
  3797.   Publicity Chairpersons
  3798.   Drs. Hsueh-Ming Hang \& Kuei-Ann Wen, National Chiao Tung Univ.,
  3799.   Taiwan
  3800.  
  3801.   International Liaison Chairperson
  3802.   Dr. Cheng-Wen Wu, National Tsing Hua Univ., Taiwan
  3803.  
  3804.   International Steering Committee Chairperson
  3805.   Dr. T. Ohtsuki, VP, IEEE Region 10, Waseda University, Japan
  3806.  
  3807.  
  3808.  
  3809. ------------------------------
  3810.  
  3811. Subject: IEEE ANNs for Signal Processing CFP
  3812. From:    hwang@pierce.ee.washington.edu (Jenq-Neng Hwang)
  3813. Date:    Mon, 01 Nov 93 19:34:35 -0800
  3814.  
  3815.                   1994 IEEE WORKSHOP ON
  3816.             NEURAL NETWORKS FOR SIGNAL PROCESSING
  3817.  
  3818.               September 6-8, 1994 Ermioni, Greece
  3819.         Sponsored by the IEEE Signal Processing Society
  3820.       (In cooperation with the IEEE Neural Networks Council)
  3821.  
  3822.  
  3823.                           CALL FOR PAPERS
  3824.  
  3825. Thanks to the sponsorship of IEEE Signal Processing Society, the
  3826. co-sponsorship of IEEE Neural Network Council, and the partial support
  3827. from Intracom S.A. Greece, the fourth of a series of IEEE workshops on
  3828. Neural Networks for Signal Processing will be held at the Porto Hydra
  3829. Resort Hotel, Ermioni, Greece, in September of 1994. Papers are
  3830. solicited for, but not limited to, the following topics:
  3831.  
  3832. APPLICATIONS:
  3833. Image, speech, communications, sensors, medical, adaptive
  3834. filtering, OCR, and other general signal processing and pattern
  3835. recognition topics.
  3836.  
  3837. THEORIES:
  3838. Generalization and regularization, system identification, parameter
  3839. estimation, new network architectures, new learning algorithms, and
  3840. wavelet in NNs.
  3841.  
  3842. IMPLEMENTATIONS:
  3843. Software, digital, analog, and hybrid technologies.
  3844.  
  3845.  
  3846. Prospective authors are invited to submit 4 copies of extended summaries
  3847. of no more than 6 pages. The top of the first page of the summary should
  3848. include a title, authors' names, affiliations, address, telephone and
  3849. fax numbers and email address if any. Camera-ready full papers
  3850. of accepted proposals will be published in a hard-bound volume by IEEE
  3851. and distributed at the workshop.  Due to workshop facility constraints,
  3852. attendance will be limited with priority given to those who submit
  3853. written technical contributions.  For further information, please
  3854. contact Mrs. Myra Sourlou at the NNSP'94 Athens office,
  3855. (Tel.) +30 1 6644961, (Fax) +30 1 6644379, (e-mail) msou@intranet.gr.
  3856.  
  3857. Please send paper submissions to:
  3858.  
  3859. Prof. Jenq-Neng Hwang
  3860. IEEE  NNSP'94
  3861. Department of Electrical Engineering, FT-10
  3862. University of Washington, Seattle, WA 98195, USA
  3863. Phone: (206) 685-1603,  Fax: (206) 543-3842
  3864.  
  3865.                              SCHEDULE
  3866.  
  3867. Submission of extended summary:   February 15
  3868. Notification of acceptance:       April 19
  3869. Submission of photo-ready paper:  June 1
  3870. Advanced registration, before:    June 1
  3871.  
  3872.  
  3873. GENERAL CHAIR
  3874. John Vlontzos
  3875. INTRACOM S.A.
  3876. Peania, Attica, Greece
  3877. jvlo@intranet.gr
  3878.  
  3879. PROGRAM CHAIR
  3880. Jenq-Neng Hwang
  3881. University of Washington
  3882. Seattle, Washington, USA
  3883. hwang@ee.washington.edu
  3884.  
  3885. PROCEEDINGS CHAIR
  3886. Elizabeth J. Wilson
  3887. Raytheon Co.
  3888. Marlborough, MA, USA
  3889. bwilson@sud2.ed.ray.com
  3890.  
  3891. FINANCE CHAIR
  3892. Demetris Kalivas
  3893. INTRACOM S.A.
  3894. Peania, Attica, Greece
  3895. dkal@intranet.gr
  3896.  
  3897.  
  3898.  
  3899. PROGRAM COMMITTEE
  3900.  
  3901. Joshua Alspector      (Bellcore, USA)
  3902. Les Atlas             (U. of Washington, USA)
  3903. Charles Bachmann      (Naval Research Lab. USA)
  3904. David Burr            (Bellcore, USA)
  3905. Rama Chellappa        (U. of Maryland, USA)
  3906. Lee Giles             (NEC Research, USA)
  3907. Steve J. Hanson       (Siemens Corp. Research, USA)
  3908. Yu-Hen Hu             (U. of Wisconsin, USA)
  3909. Jenq-Neng Hwang       (U. of Washington, USA)
  3910. Bing-Huang Juang      (AT&T Bell Lab., USA)
  3911. Shigeru Katagiri      (ATR Japan)
  3912. Sun-Yuan Kung         (Princeton U., USA)
  3913. Gary M. Kuhn          (Siemens Corp. Research, USA)
  3914. Stephanos Kollias     (National Tech. U. of Athens, Greece)
  3915. Richard Lippmann      (MIT Lincoln Lab., USA)
  3916. Fleming Lure          (Kaelum Research Co., USA)
  3917. John Makhoul          (BBN Lab., USA)
  3918. Richard Mammone       (Rutgers U., USA)
  3919. Elias Manolakos       (Northeastern U., USA)
  3920. Nahesan Niranjan      (Cambridge U., UK)
  3921. Tomaso Poggio         (MIT, USA)
  3922. Jose Principe         (U. of Florida, USA)
  3923. Wojtek Przytula       (Hughes Research Lab., USA)
  3924. Ulrich Ramacher       (Siemens Corp., Germany)
  3925. Bhaskar D. Rao        (UC San Diego, USA)
  3926. Andreas Stafylopatis  (National Tech. U. of Athens, Greece)
  3927. Noboru Sonehara       (NTT Co., Japan)
  3928. John Sorensen         (Tech. U. of Denmark, Denmark)
  3929. Yoh'ichi Tohkura      (ATR, Japan)
  3930. John Vlontzos         (Intracom S.A., Greece)
  3931. Raymond Watrous       (Siemens Corp. Research, USA)
  3932. Christian Wellekens   (Eurecom, France)
  3933. Yiu-Fai Issac Wong    (Lawrence Livermore Lab., USA)
  3934. Barbara Yoon          (ARPA, USA)
  3935.  
  3936.  
  3937.  
  3938. ------------------------------
  3939.  
  3940. End of Neuron Digest [Volume 12 Issue 16]
  3941. *****************************************
  3942. Received: from BUACCA by BUACCA.BU.EDU (Mailer R2.08 PTF009) with BSMTP id
  3943.  6219; Thu, 18 Nov 93 23:25:48 EST
  3944. Received: from noc4.dccs.upenn.edu by BUACCA.BU.EDU (IBM VM SMTP R1.2.1) with
  3945.  TCP; Thu, 18 Nov 93 23:25:43 EST
  3946. Received: from CATTELL.PSYCH.UPENN.EDU by noc4.dccs.upenn.edu
  3947.     id AA28838; Thu, 18 Nov 93 23:25:17 -0500
  3948. Return-Path: <marvit@cattell.psych.upenn.edu>
  3949. Received: from LOCALHOST by cattell.psych.upenn.edu
  3950.     id AA13603; Thu, 18 Nov 93 21:50:33 EST
  3951. Posted-Date: Thu, 18 Nov 93 21:49:51 EST
  3952. From: "Neuron-Digest Moderator" <neuron-request@CATTELL.PSYCH.UPENN.EDU>
  3953. To: Neuron-Distribution:;
  3954. Subject: Neuron Digest V12 #17 (misc, jobs, queries, cybernetics, etc.)
  3955. Reply-To: "Neuron-Request" <neuron-request@CATTELL.PSYCH.UPENN.EDU>
  3956. X-Errors-To: "Neuron-Request" <neuron-request@psych.upenn.edu>
  3957. Organization: University of Pennsylvania
  3958. Date: Thu, 18 Nov 93 21:49:51 EST
  3959. Message-Id: <13597.753677391@cattell.psych.upenn.edu>
  3960. Sender: marvit@cattell.psych.upenn.edu
  3961.  
  3962. Neuron Digest   Thursday, 18 Nov 1993
  3963.                 Volume 12 : Issue 17
  3964.  
  3965. Today's Topics:
  3966.      IWANNT-EPROCS - note that the correct public login is iwan_pub
  3967.                     Need refs on Spherical Harmonics
  3968.                    Oxford Connectionist Summer School
  3969.                   AI CD-ROM Revision 2 - press release
  3970.              Adaptive Simulated Annealing (ASA) version 1.53
  3971.                             Neuron Submission
  3972.                          request for information
  3973.                         Academic position at USC
  3974.                          Re: Whence cybernetics
  3975.                        Vclamp and Cclamp programs?
  3976.                 Looking for a paper from some conference
  3977.  
  3978.  
  3979. Send submissions, questions, address maintenance, and requests for old
  3980. issues to "neuron-request@psych.upenn.edu". The ftp archives are
  3981. available from psych.upenn.edu (130.91.68.31). Back issues requested by
  3982. mail will eventually be sent, but may take a while.
  3983.  
  3984. ----------------------------------------------------------------------
  3985.  
  3986. Subject: IWANNT-EPROCS - note that the correct public login is iwan_pub
  3987. From:    Bob Allen <rba@bellcore.com>
  3988. Date:    Tue, 09 Nov 93 12:45:40 -0500
  3989.  
  3990.  
  3991. Subject: IWANNT'93 Electronic Proceedings
  3992.  
  3993.                  Electronic Proceedings for
  3994. 1993 International Workshop on Applications of Neural Networks
  3995.                    to Telecommunications
  3996.  
  3997. 1.  Electronic Proceedings (EPROCS)
  3998.  
  3999. The Proceedings for the 1993 International Workshop on
  4000. Applications of Neural Networks to Telecommunications
  4001. (IWANNT'93) have been converted to electronic form and are
  4002. available in the SuperBook(TM) document browsing system.  In
  4003. addition to the IWANNT'93 proceedings, you will be able to
  4004. access abstracts from the 1992 Bellcore Workshop on
  4005. Applications of Neural Networks to Telecommunications and
  4006. pictures of several of the conference attendees.
  4007.  
  4008. We would appreciate your feedback about the use of this
  4009. system.  In addition, if you have questions, or would like a
  4010. personal account, please contact Robert B. Allen
  4011. (iwannt_allen@bellcore.com or rba@bellcore.com).
  4012.  
  4013. 2.  Accounts and Passwords
  4014.  
  4015. Public access is available with the account name: iwan_pub
  4016. Individual accounts and passwords were given to conference
  4017. participants.  Annotations made by iwan_pub may be edited by the
  4018. electonic proceedings editor.
  4019.  
  4020. 3.  Remote Access Via Xwindows
  4021.  
  4022. >From an Xwindow on machine connected to the Internet do the
  4023. following.  Note that some locations may have "firewall"
  4024. that prevents Xwindows' applications from running.  If this
  4025. procedure fails, you may have to find a machine outside your
  4026. firewall or use the character-based interface (csb).
  4027.  
  4028.    + xhost +128.96.58.4  (Xwindows display permission for
  4029.        superbook.bellcore.com)
  4030.    + telnet 128.96.58.4
  4031.    + (login)
  4032.    + TERM=xterms         (it is important to use "xterms")
  4033.    + enter your email address
  4034.    + Figure out and enter  your  machine's  IP  address
  4035.         (in /etc/hosts or ask an administrator)
  4036.    + gxsb                (Xwindows version of SuperBook)
  4037.  
  4038. 3.1  Overview of Xwindows SuperBook Commands
  4039.  
  4040. When you login to SuperBook, you will obtain a Library
  4041. Window.  For the IWANNT proceedings, you should select the
  4042. IWANNT shelf, highlight "Applications of Neural Networks to
  4043. Telecommunications" and click "Open".  The Text Window
  4044. should be placed on the right side of the screen and the
  4045. Table-of-Contents Window should be placed on the left.
  4046. These windows can be resized.
  4047.  
  4048. Table-of-Contents (TOC): Books, articles, and sections
  4049. within books can be selected by clicking in the TOC. If the
  4050. entry contains subsections, it will be marked with a "+".
  4051. Double-clicking on those entries expands them.  Clicking on
  4052. an expanded entry closes it.
  4053.  
  4054. Text Window: The text can be scrolled one-line-at-a-time
  4055. with the Scroll Bar Arrows or a page-at-a-time by clicking
  4056. on the spaces immediately above or below the Slider.
  4057.  
  4058. Graphics:  Figures, tables, and some equations are presented
  4059. as bitmaps.  The graphics can be viewed by clicking on the
  4060. blue icons at the right side of the text which pops up a
  4061. bitmap-viewer.  Graphics can be closed by clicking on their
  4062. "close" button. Some multilemdia applications have been
  4063. included, but these may not work correctly across the
  4064. Internet.
  4065.  
  4066. Searching: Terms can be searched in the text by typing them
  4067. into the Search-Window.  Wild-card searches are possible as
  4068. term* You can also search by clicking on a term in the text
  4069. (to clear that search and select another, do ctrl-click).
  4070.  
  4071. Annotations: Annotations are indicated with a pencil icon
  4072. and can be read by clicking on the icon. Annotations can be
  4073. created (with conference-attendee logins) by clicking in the
  4074. text with the left button and then typing in the annotation
  4075. window.
  4076.  
  4077. Exiting: Pull down the FILE menu on the Library Window to
  4078. "QUIT", and release.
  4079.  
  4080.  
  4081. 4.  Remote Access via character-based interface
  4082.  
  4083. >From any machine connected to the Internet do the following:
  4084.  
  4085.    + telnet 128.96.58.4  (for superbook.bellcore.com)
  4086.    + (login)
  4087.    + TERM=(termtype)     (use "xterms" for an Xwindow inside
  4088.        a firewall)
  4089.    + enter your email address
  4090.    + csb
  4091.  
  4092. 4.1  Overview of csb SuperBook Commands
  4093.  
  4094. The character-based interface resembles emacs.  You first
  4095. enter Library mode.  After selecting a shelf (make sure you
  4096. are on the IWANNT shelf) and a book on that shelf (e.g.,
  4097. Applications of Neural Networks to Telecommunications), the
  4098. screen is split laterally into two parts. The upper window
  4099. is the TOC and the lower window has the text.
  4100.  
  4101. Table-of-Contents (TOC): Books, articles, and sections
  4102. within books can be selected by typing the number beside
  4103. them in the TOC. If the entry contains subsections, it will
  4104. be marked with a "+".
  4105.  
  4106. Text Window: The text can be scrolled one-line-at-a-time
  4107. with the u/d keys or a page-at-a-time with the U/D keys.
  4108.  
  4109. Graphics: Most bitmapped graphics will not be available.
  4110.  
  4111. Searching: Terms can be searched in the text by typing them
  4112. into the Search-Window.  Wild-card searches are possible as
  4113. term* Searches are also possible by posting the cursor over
  4114. a word and hitting RET.
  4115.  
  4116. Annotations: Annotations are indicated with an A on the
  4117. right edge of the screen.  These can be read by entering an
  4118. A on the line on which they are presented.  Annotations can
  4119. be created (given correct permissions) by entering A on any
  4120. line.
  4121.  
  4122. Exiting: Enter "Q"
  4123.  
  4124.  
  4125.  
  4126. ------------------------------
  4127.  
  4128. Subject: Need refs on Spherical Harmonics
  4129. From:    slehar@copley.bu.edu (Steve Lehar)
  4130. Organization: Boston University Center for Adaptive Systems
  4131. Date:    10 Nov 93 18:10:59 +0000
  4132.  
  4133.  
  4134. RADICAL NEW BRAIN THEORY
  4135.  
  4136.   I have come up with a very interesting new theory on the way the brain
  4137.   represents spatial patterns by  way  of harmonic resonant interactions
  4138.   between electrically coupled neurons.  The big advantage of using such
  4139.   resonances is that a simple  physical system, for  example a bell,  is
  4140.   capable of responding to and reproducing fantastically complex spatial
  4141.   patterns, i.e.  the  harmonics of  the  bell,  in a remarkably  robust
  4142.   manner  using  simple dynamical   interactions, and  can encode  those
  4143.   complex spatial patterns  in a simple and  highly  compressed rotation
  4144.   invariant code, i.e.   the  oscillation frequency corresponding to the
  4145.   harmonic pattern.   This is a radically new  theory, and  suggests  an
  4146.   entirely new  mode of communication between neurons  in the  brain.  I
  4147.   have performed a number of  computer simulations which  have confirmed
  4148.   the validity of the theory by accurately reproducing a large number of
  4149.   visual phenomena by way of a single simple mechanism.
  4150.  
  4151. NEED REFERENCES ON SPHERICAL HARMONICS
  4152.  
  4153.   I would now  like  to  extend  the orientational  harmonic   theory to
  4154.   explain three-dimensional harmonics, in order  to explore the kinds of
  4155.   spatial structures that can be represented by this kind of system.  In
  4156.   order to do this, I  need to  read up on  spherical harmonics.  I have
  4157.   found a number of books in the library full of fantastically elaborate
  4158.   differential equations, etc, but  that is  NOT what  I am looking for.
  4159.   What I want is either a catalogue of the kinds of patterns represented
  4160.   by the  first few harmonics, or  a SIMPLE description  of  how I could
  4161.   write a computer program that would reproduce these patterns.
  4162.  
  4163.   For  example, some  astronomy books explain  how the sun is constantly
  4164.   oscillating, or ringing like a  bell, and the fundamental harmonics of
  4165.   these oscillations include:
  4166.  
  4167.     bulging all over, then shrinking all over, alternately
  4168.  
  4169.     bulging in the northern hemisphere while shrinking in the
  4170.     southern, and the inverse, alternately
  4171.  
  4172.     bulging  at  the equator  and   shrinking  at the  poles...
  4173.  
  4174.     bulging at the equatior and at a northern and southern "temperate"
  4175.     lattitude, while shrinking elsewhere...
  4176.  
  4177.     etc, etc...
  4178.  
  4179.   in  other words, this    set  of   harmonics  defines  a   series of
  4180.   alternating subdivisions   by lattitude.  Another  set  of harmonics
  4181.   defines  a  similar  alternation by  longitude, creating alternating
  4182.   "orange  slices".  Combinations of  these  two modes of  oscillation
  4183.   produce checkerboard patterns, and so forth.  Each of these patterns
  4184.   corresponds to  a   particular  temporal  waveform  or   oscillation
  4185.   frequency  which  therefore represents  that  pattern  in a rotation
  4186.   invariant manner.  The bizzar patterns seen in electron orbitals are
  4187.   yet another example of spherical harmonics.  Does anybody know  of a
  4188.   reference that  would list  these different pattern  types, or  give
  4189.   equations that are  simple enough that  I could   type them into  my
  4190.   computer and generate families of  these  patterns  myself?  I  have
  4191.   neither the inclination nor the ability to plummet the depths of the
  4192.   differential equations defining such systems, I only want to look at
  4193.   the resultant patterns.
  4194.  
  4195.   Can anybody out there help me?
  4196.  
  4197. - --
  4198. (O)((O))(((O)))((((O))))(((((O)))))(((((O)))))((((O))))(((O)))((O))(O)
  4199. (O)((O))(((               slehar@park.bu.edu               )))((O))(O)
  4200. (O)((O))(((    Steve Lehar Boston University Boston MA     )))((O))(O)
  4201. (O)((O))(((    (617) 424-7035 (H)   (617) 353-6741 (W)     )))((O))(O)
  4202. (O)((O))(((O)))((((O))))(((((O)))))(((((O)))))((((O))))(((O)))((O))(O)
  4203.  
  4204. ------------------------------
  4205.  
  4206. Subject: Oxford Connectionist Summer School
  4207. From:    plunkett (Kim Plunkett) <@prg.ox.ac.uk:plunkett@dragon.psych>
  4208. Date:    Thu, 11 Nov 93 18:43:43 +0000
  4209.  
  4210.  
  4211.  
  4212.  
  4213.                     UNIVERSITY OF OXFORD
  4214.  
  4215.  
  4216.  
  4217.                MRC BRAIN AND BEHAVIOUR CENTRE
  4218.       McDONNELL-PEW CENTRE FOR COGNITIVE NEUROSCIENCE
  4219.  
  4220.           SUMMER SCHOOL ON CONNECTIONIST MODELLING
  4221.  
  4222.  
  4223.            Department of Experimental Psychology
  4224.                     University of Oxford
  4225.  
  4226.                     11-23 September 1994
  4227.  
  4228.  
  4229.  
  4230. Applications are  invited  for  participation  in  a  2-week
  4231. residential  Summer  School  on  techniques in connectionist
  4232. modelling of cognitive and biological phenomena.  The course
  4233. is aimed primarily at researchers who wish to exploit neural
  4234. network models in their teaching and/or research.   It  will
  4235. provide  a  general  introduction to connectionist modelling
  4236. through lectures and exercises on PCs. The instructors  with
  4237. primary  responsibility  for  teaching  the  course  are Kim
  4238. Plunkett and Edmund Rolls.
  4239.  
  4240. No  prior  knowledge  of  computational  modelling  will  be
  4241. required  though  simple  word  processing  skills  will  be
  4242. assumed.  Participants will be encouraged to start  work  on
  4243. their own modelling projects during the Summer School.
  4244.  
  4245. The Summer School is sponsored (jointly) by  the  University
  4246. of  Oxford  McDonnell-Pew  Centre for Cognitive Neuroscience
  4247. and the MRC Brain and Behaviour Centre.  The cost of  parti-
  4248. cipation  in  the  summer  school  is  500 pounds to include
  4249. accommodation (bed and breakfast at St. John's College)  and
  4250. summer school registration. Participants will be expected to
  4251. cover their own travel and meal costs.  A  small  number  of
  4252. graduate  student  scholarships may be available. Applicants
  4253. should indicate whether they wish to  be  considered  for  a
  4254. graduate  student  scholarship but are advised to seek their
  4255. own funding as well, since in previous years the  number  of
  4256. graduate student applications has far exceeded the number of
  4257. scholarships available.
  4258.  
  4259. If you are interested in participating in the Summer School,
  4260. please contact:
  4261.  
  4262. Mrs. Sue King
  4263. Department of Experimental Psychology
  4264. University of Oxford
  4265. South Parks Road
  4266. Oxford OX1 3UD
  4267.  
  4268. Tel:  (0865) 271353
  4269. Email:  sking@uk.ac.oxford.psy
  4270.  
  4271. Please send a brief description of your background  with  an
  4272. explanation  why  you would like to attend the Summer School
  4273. (one page maximum) no later than 1 April 1994.
  4274.  
  4275.  
  4276. ------------------------------
  4277.  
  4278. Subject: AI CD-ROM Revision 2 - press release
  4279. From:    ncc@ncc.jvnc.net (R. Steven Rainwater)
  4280. Date:    Sat, 13 Nov 93 17:48:32 -0600
  4281.  
  4282. [[ Editor's Note: I have edited this message heavily -- in fact, deleted
  4283. the press release.  It is close to my threshold for a "commercial
  4284. announcement"(even if *does* contain the archives of Neuron Digest), so I
  4285. will let interested readers get the table of contents files and/or
  4286. contact the poster.  The official retail cost for this CD-ROM is $129,
  4287. though it seems that most of the contents are generally distributable
  4288. without license. -PM ]]
  4289.  
  4290. We actually started shipping the Rev.2 discs a couple of months ago but due
  4291. to the number of orders already waiting to be filled we didn't want to send
  4292. out press releases until we'd caught up.  Anyway, things seem to be going
  4293. along fine at this point, so here's the press release!  The hard copies are
  4294. going out to the trade mags at about the same time, so they'll probably
  4295. start showing up in a month or so.
  4296.  
  4297. For people wanting to see a complete listing of the CD's contents, look for
  4298. the file AICDROM2.ZIP at an ftp site near you.  The file is also available
  4299. from the Compuserve AI forum, and the NCC dial-up BBS at 214-258-1832. It
  4300. contains the file listing, this press release, a couple of magazine reviews
  4301. of the disc, and other assorted information. Oh, and one last note regarding
  4302. pricing - customers have told us that Programmer's Pardise seems to have the
  4303. best pricing in the US on the disc...
  4304.  
  4305. - -Steve Rainwater
  4306.  
  4307.  
  4308. ============================================================================
  4309. Network Cybernetics Corporation -- Press release for electronic distribution
  4310. ============================================================================
  4311. ANNOUNCING THE AI CD-ROM REVISION 2
  4312.  
  4313. Network Cybernetics Corporation is now shipping the second annual revision
  4314. of their popular AI CD-ROM, an ISO-9660 format CD-ROM containing a wide
  4315. assortment of information on AI, Robotics, and other advanced machine
  4316. technologies. The AI CD-ROM contains thousands of programs, source code
  4317. collections, tutorials, research papers, Internet journals, and other
  4318. resources. The topics covered include artificial intelligence, artificial
  4319. life, robotics, virtual reality, and many related fields. Programs for OS/2,
  4320. DOS, Macintosh, UNIX, Amiga, and other platforms can be found on the disc.
  4321. The files have been collected from civilian and government research centers,
  4322. universities, Internet archive sites, BBS systems and other sources. The
  4323. CD-ROM is updated annually to keep it current with the latest trends and
  4324. developments in advanced machine technologies such as AI.
  4325.  
  4326. [[ the rest of this text deleted for brevity. -PM ]]
  4327.  
  4328. ------------------------------
  4329.  
  4330. Subject: Adaptive Simulated Annealing (ASA) version 1.53
  4331. From:    Lester Ingber <ingber@alumni.cco.caltech.edu>
  4332. Date:    Sun, 14 Nov 93 03:15:46 -0800
  4333.  
  4334. ========================================================================
  4335.                 Adaptive Simulated Annealing (ASA) version 1.53
  4336.  
  4337. To get on or off the ASA email list, just send an email to
  4338. asa-request@alumni.caltech.edu with your request.
  4339. ________________________________________________________________________
  4340.                 Significant CHANGES since 1.43 (17 Sep 93)
  4341.  
  4342. In General Information below, note the changes in the names of the
  4343. files containing the ASA code in the archive.  The original filename
  4344. was decided by Netlib; with the code now in the Caltech archive, more
  4345. standard conventions can be used.
  4346.  
  4347. In asa.c, INT_ALLOC and INT_LONG defines had to be corrected around a
  4348. few fprintf statements.  This may affect some PCs.
  4349.  
  4350. On a Sun, gcc-2.5.0 update runs were performed.  Since the change in
  4351. definitions of MIN_DOUBLE and MAX_DOUBLE, setting SMALL_FLOAT=E-12 does
  4352. not agree with SMALL_FLOAT=E-18 and SMALL_FLOAT=E-20 (the latter two
  4353. agree), unless MIN_DOUBLE=E-18 also is set.  The results diverge when
  4354. the parameter temperatures get down to the range of E-12, limiting the
  4355. accuracy of the SMALL_FLOAT=1.0E-12 run.
  4356.  
  4357. Added TIME_STD Pre-Compile Option to use unix-standard macros for time
  4358. routines, as required by some systems, e.g., hpux.
  4359.  
  4360. The ASA_TEMPLATE and ASA_TEST OPTIONS were added to permit easier use
  4361. of templates and test examples.  Setting ASA_TEST to TRUE will permit
  4362. running the ASA test problem.  Searching user.c for ASA_TEST also
  4363. provides a guide to the user for additional code to add for his/her own
  4364. system.  Keeping the default of ASA_TEST set to FALSE permits such
  4365. changes without overwriting the test example.  There are several
  4366. templates that come with the ASA code, used to test several OPTIONS.
  4367. To permit use of these OPTIONS without having to delete these extra
  4368. tests, these templates are wrapped with ASA_TEMPLATE.
  4369. ________________________________________________________________________
  4370.                         ASA-Related Papers
  4371.  
  4372. The following two papers have used ASA to solve some very difficult
  4373. imaging problems that did not yield to other global optimization
  4374. techniques.
  4375.  
  4376. %A G. Blais
  4377. %A M.D. Levine
  4378. %T Registering multiview range data to create 3D computer objects
  4379. %R TR-CIM-93-16
  4380. %I Center for Intelligent Machines, McGill University
  4381. %C Montreal, Canada
  4382. %D 1993
  4383. This paper is a large file, 1.7 MBytes gzip'd, and there may soon be an
  4384. ftp site available for its retrieval.  You can contact Gerard Blais
  4385. <gblais@mcrcim.mcgill.edu> for further information.
  4386.  
  4387. %A K. Wu
  4388. %A M.D. Levine
  4389. %T 3-D object representation using parametric geons
  4390. %R TR-CIM-93-13
  4391. %I Center for Intelligent Machines, McGill University
  4392. %C Montreal, Canada
  4393. %D 1993
  4394. This paper can be retrieved via anonymous ftp as
  4395. object_representation.ps.gz from ftp.caltech.edu in directory
  4396. pub/ingber/.limbo.  (Read file INDEX in pub/ingber to retrieve files
  4397. from .limbo.) Contact Wu Kenong <wu@mcrcim.mcgill.edu> for further
  4398. information.
  4399.  
  4400. I believe that files should be stored in archives related more to a
  4401. relevant discipline than to the computational tools used to derive
  4402. results.  So, while I can document ASA-related papers and actively
  4403. search for ftp sites to hold electronic (p)reprints, I cannot guarantee
  4404. storage for them in the Caltech ASA archive.  The problem is that often
  4405. it is difficult to find archives for large files, e.g., containing
  4406. scanned figures.  If anyone has authority to house large files to be
  4407. made available via anonymous ftp, please let me know what disciplines
  4408. you are willing to support.
  4409. ________________________________________________________________________
  4410.                         Wall Street Journal
  4411.  
  4412. The reference to the article in the WSJ that mentioned the wide-spread
  4413. use of the ASA code is M. Wofsey, "Technology: Shortcut Tests Validity
  4414. of Complicated Formulas," The Wall Street Journal, vol. CCXXII, no. 60,
  4415. p. B1, 24 September 1993.
  4416.  
  4417. As I stated in the last general update:  I gave the WSJ examples of
  4418. some projects using ASA, but I had to insist that the relevant people
  4419. would have to be contacted previous to citing them.  Of course the
  4420. press has the last word on what they will publish/interpret.
  4421. ________________________________________________________________________
  4422.                         General Information
  4423.  
  4424. The latest Adaptive Simulated Annealing (ASA) code and some related
  4425. (p)reprints in compressed PostScript format can be retrieved via
  4426. anonymous ftp from ftp.caltech.edu [131.215.48.151] in the pub/ingber
  4427. directory.
  4428.  
  4429. Interactively: ftp ftp.caltech.edu, [Name:] anonymous, [Password:]
  4430. your_email_address, cd pub/ingber, binary, ls or dir, get
  4431. file_of_interest, quit.  The INDEX file contains an index of the other
  4432. files and information on getting gzip and unshar for UNIX, DOS and MAC
  4433. systems.
  4434.  
  4435. The latest version of ASA is ASA-x.y-shar.Z (x and y are version
  4436. numbers), linked to ASA-shar.Z.  For the convenience of users who do
  4437. not have any uncompress/gunzip utility, there is a file ASA-shar which
  4438. is an uncompressed copy of ASA-x.y-shar.Z/ASA-shar.Z; if you do not
  4439. have sh or shar, you still can delete the first-column X's and separate
  4440. the files at the END_OF_FILE locations.  For the convenience of some
  4441. users, there also is a current gzip'd tar'd version, ASA-x.y.tar.gz,
  4442. linked to ASA.tar.gz.  There are patches ASA-diff-x1.y1-x2.y2.Z up to
  4443. the present version; these may be concatenated as required before
  4444. applying.  Only current patches may be available.  If you require a
  4445. specific patch that is not contained in the archive, contact
  4446. ingber@alumni.caltech.edu.
  4447.  
  4448. If you do not have ftp access, get information on the FTPmail service
  4449. by: mail ftpmail@decwrl.dec.com, and send only the word "help" in the
  4450. body of the message.
  4451.  
  4452. If any of the above are not possible, and if your mailer can handle
  4453. large files (please test this first), the code or papers you require
  4454. can be sent as uuencoded compressed files via electronic mail.  If you
  4455. have gzip, resulting in smaller files, please state this.
  4456.  
  4457. Sorry, I cannot assume the task of mailing out hardcopies of code or
  4458. papers.  My volunteer time assisting people with their their queries on
  4459. my codes and papers must be limited to electronic mail correspondence.
  4460.  
  4461. Lester
  4462. ========================================================================
  4463.  
  4464. || Prof. Lester Ingber                                 1-800-L-INGBER ||
  4465. || Lester Ingber Research                  Fax: [10ATT]0-700-L-INGBER ||
  4466. || P.O. Box 857                      EMail: ingber@alumni.caltech.edu ||
  4467. || McLean, VA  22101             Archive: ftp.caltech.edu:/pub/ingber ||
  4468.  
  4469.  
  4470. ------------------------------
  4471.  
  4472. Subject: Neuron Submission
  4473. From:    "K. Mansell" <csp35@teach.cs.keele.ac.uk>
  4474. Date:    Tue, 16 Nov 93 18:32:48 +0000
  4475.  
  4476. [[ Editor's Note: As readers know, I publish "jobs offered" but not "jobs
  4477. wanted". I've asked this fellow to rewrite his request, since it seemed
  4478. like an academic "internship."  In the U.S., such positions are usually
  4479. volunteer, unpaid, and for a limited duration. Well, here it is... -PM ]]
  4480.  
  4481.  I am a physics graduate in the UK, currently studying for an MSc in Machine
  4482. Perception and Neurocomputing. The second half of my course involves a 6
  4483. month project and I am in the process of contacting companies in the UK who
  4484. are working in the area of neural computing to see if they would be
  4485. agreeable to me working on a project for them.
  4486.  The level of commitment/support provided by the company is at the discretion
  4487. of the company itself. The placement I am looking for would preferably be
  4488. at the company's site although it need not be paid work. I am interested
  4489. in the application of neural nets to real scientific/technical problems
  4490. and would rather not work on defence projects.
  4491.  I would be grateful for any information (contacts, areas of work etc)
  4492. relating to companies working with neural networks in the UK who
  4493. might consider offering me a project placement. In particular, I am trying
  4494. to locate a company called Neural Computer Systems (Sciences?) who have so
  4495. far eluded my searching.
  4496.  
  4497.  
  4498. Kevin Mansell
  4499. <csp35@teach.cs.keele.ac.uk>
  4500.  
  4501.  
  4502. ------------------------------
  4503.  
  4504. Subject: request for information
  4505. From:    moody_k@orgella.com
  4506. Date:    Tue, 16 Nov 93 16:50:24 -0500
  4507.  
  4508.  
  4509. Greetings!
  4510.  
  4511. I have just joined the neural digest mailing list, and I have
  4512. been excited to see so much activity.  I am a graduate student
  4513. at the University of New Hampshire in electrical engineering,
  4514. and a relative newcomer to neural network technology.
  4515.  
  4516. I have been researching neural networks as related to control
  4517. systems. and have found many references to work done by
  4518. Narendra and Parthasarathy which was published in IEEE
  4519. transactions in March 1990, where they proposed combining
  4520. recurrent and multilayer networks, and training with
  4521. dynamic backpropagation.
  4522.  
  4523. I am wondering if anyone could recommend more recent references
  4524. which might indicate what these proposals have lead to, and
  4525. what the present state of these techniquexs may be.
  4526.  
  4527. Thank you in advance.
  4528.  
  4529. Kris Moody
  4530.  
  4531. moody_k@orgella.uucp
  4532.  
  4533.  
  4534.  
  4535.  
  4536. ------------------------------
  4537.  
  4538. Subject: Academic position at USC
  4539. From:    Jean-Marc Fellous <fellous@rana.usc.edu>
  4540. Date:    Tue, 16 Nov 93 14:24:57 -0800
  4541.  
  4542.  
  4543. Could you please post this announcement ....
  4544.  
  4545.  
  4546.  
  4547.  
  4548.                   ASSISTANT/ASSOCIATE PROFESSOR
  4549.                BIOMEDICAL ENGINEERING/NEUROSCIENCE
  4550.                 UNIVERSITY OF SOUTHERN CALIFORNIA
  4551.  
  4552.      A tenure-trace faculty position is available in the Department
  4553. of Biomedical Engineering at the University of Southern California.
  4554. This is a new position, created to strengthen the concentration of
  4555. neuroscience research within the Department.  Applicants should be
  4556. capable of establishing an externally funded research program that
  4557. includes a rigorous, quantitative approach to functional aspects of
  4558. the nervous system.  A combined theoretical and experimental approach
  4559. is preferred, though applicants withpurely theoretical research
  4560. programs will be considered.  Multiple opportunities for
  4561. interdisciplinary research are fostered by USC academic and research
  4562. programs such as the Biomedical Simulations Resource, the Program in
  4563. Neu~science, and the Center for Neural Computing.  Send curriculum
  4564. vitae, three letters of recommendation, and a description of current
  4565. and future research by January 1, 1994 to
  4566.  
  4567. Search Committee,
  4568. Department of Biomedical Engineerig,
  4569. 530 Olin Hall,
  4570. University of Southern California,
  4571. Los Angeles, CA 90089-1451.
  4572.  
  4573.  
  4574.  
  4575. ------------------------------
  4576.  
  4577. Subject: Re: Whence cybernetics
  4578. From:    Jim Brakefield <braker@ennex1.eng.utsa.edu>
  4579. Date:    Wed, 17 Nov 93 09:46:49 -0800
  4580.  
  4581.   The Sept. 93 issue of Connections mentions the Neuron Digest discussion on the
  4582.  AI/Cybernetic
  4583. history.  I would like to comment.
  4584.  
  4585.   I did a poster paper for IJCNN 1988 in which one topic was the development of
  4586.  quantitative "scales"
  4587. from qualitative concepts (i.e like the emmergence of  a temperature scale from
  4588.  the three states of
  4589.  
  4590. matter).  One example in the poster paper dealt with the emergence of two
  4591.  scales:
  4592.  
  4593.   The subject area is AI/connectionism/expert systems and the like.  The two
  4594.  scales are computation
  4595. requirements and memory requirements.  The historical perspective is that early
  4596.  AI attempted to
  4597.  
  4598. minimize both computation and memory.  The result was theorem proving
  4599. (efficiency of the symbolic
  4600. and logic approach in both knowledge and calculation via derivation of
  4601.  formulas).  The next epoch
  4602.  
  4603. was Expert Systems which allowed a larger knowledge data base (greater
  4604.  consumption of memory).
  4605.  
  4606. The current epoch of connectionism allows both large knowledge data and
  4607.  extensive computation.
  4608.  
  4609.   Thus the progression of "AI" paradgms has followed the historical improvement
  4610.  in computer
  4611. ecconomy.  The perspective is that of placing each AI algorithm at a position in
  4612.  a two dimensional
  4613. space of computational requirements and memory requirements.  The early failure
  4614.  of the "cybernetic"
  4615. approach is thus a matter of its implementation requirements being ahead of its
  4616.  time.  One can wonder
  4617. if Minsky and Papert book was an emergent phenonena resulting from the computer
  4618.  ecconomics
  4619. of its day.
  4620.  
  4621. James C. Brakefield             braker@ennex1.eng.utsa.edu
  4622.  
  4623.  
  4624.  
  4625. ------------------------------
  4626.  
  4627. Subject: Vclamp and Cclamp programs?
  4628. From:    ilya@cheme.seas.upenn.edu (Ilya Rybak)
  4629. Date:    Wed, 17 Nov 93 20:55:10 -0500
  4630.  
  4631. Dear friends,
  4632.  
  4633. I would like to get Vclamp and Cclamp programs for simulation of
  4634. single neuron that were developed and are distributing by
  4635. John Huguenard and David McCormick. I will be very thankful to
  4636. somebody for information (e-mail address) about how to order these
  4637. programs.
  4638.  
  4639. Ilya Rybak
  4640. ilya@cheme.seas.upenn.edu
  4641.  
  4642.  
  4643.  
  4644. ------------------------------
  4645.  
  4646. Subject: Looking for a paper from some conference
  4647. From:    "r.kelly" <DFCA4601G@UNIVERSITY-CENTRAL-ENGLAND.AC.UK>
  4648. Date:    Thu, 18 Nov 93 17:06:38
  4649.  
  4650. Hello
  4651.  
  4652. I have been looking (unsuccessfully) for the following paper for some
  4653.  time now :
  4654.  
  4655.     D Nguyen, B Widrow, "Improving the learning speed of 2-layer neural
  4656.     networks by choosing initial values of the adaptive weights",
  4657.     International Conference of Neural Networks, July 1990
  4658.  
  4659. I don't have access to any Neural Network conference proceedings and
  4660. the ILL counter at my library is unable to track it down.  Can anyone
  4661. tell me which International Conference is being referred to here?
  4662.  
  4663. Thanks,
  4664. Heather
  4665.  
  4666. Internet : dfca4601g%uk.ac.uce@nsf.ac.uk
  4667.    Janet : dfca4601g@uk.ac.uce
  4668.  
  4669.  
  4670. ------------------------------
  4671.  
  4672. End of Neuron Digest [Volume 12 Issue 17]
  4673. *****************************************
  4674. Received: from BUACCA by BUACCA.BU.EDU (Mailer R2.08 PTF009) with BSMTP id
  4675.  0076; Fri, 19 Nov 93 19:44:10 EST
  4676. Received: from noc4.dccs.upenn.edu by BUACCA.BU.EDU (IBM VM SMTP R1.2.1) with
  4677.  TCP; Fri, 19 Nov 93 19:44:00 EST
  4678. Received: from CATTELL.PSYCH.UPENN.EDU by noc4.dccs.upenn.edu
  4679.     id AA27710; Fri, 19 Nov 93 19:43:04 -0500
  4680. Return-Path: <marvit@cattell.psych.upenn.edu>
  4681. Received: from LOCALHOST by cattell.psych.upenn.edu
  4682.     id AA10572; Fri, 19 Nov 93 19:03:39 EST
  4683. Posted-Date: Fri, 19 Nov 93 19:02:53 EST
  4684. From: "Neuron-Digest Moderator" <neuron-request@CATTELL.PSYCH.UPENN.EDU>
  4685. To: Neuron-Distribution:;
  4686. Subject: Neuron Digest V12 #18 (conferences and CFP)
  4687. Reply-To: "Neuron-Request" <neuron-request@CATTELL.PSYCH.UPENN.EDU>
  4688. X-Errors-To: "Neuron-Request" <neuron-request@psych.upenn.edu>
  4689. Organization: University of Pennsylvania
  4690. Date: Fri, 19 Nov 93 19:02:53 EST
  4691. Message-Id: <10552.753753773@cattell.psych.upenn.edu>
  4692. Sender: marvit@cattell.psych.upenn.edu
  4693.  
  4694. Neuron Digest   Friday, 19 Nov 1993
  4695.                 Volume 12 : Issue 18
  4696.  
  4697. Today's Topics:
  4698.                URGENT: DEADLINE CHANGE FOR WORLD CONGRESS
  4699.                  Colloquium on Advances in Neurocontrol
  4700.                  Wavelet Transform Short Course at UCLA
  4701.             Int'l Conf. on Evolutionary Computation / PPSN-94
  4702.                               NIPS Workshop
  4703.                10th Israeli IAICVNN Symposium, 27-28 Dec.
  4704.                     FINAL call for papers for CBMS 94
  4705.  
  4706.  
  4707. Send submissions, questions, address maintenance, and requests for old
  4708. issues to "neuron-request@psych.upenn.edu". The ftp archives are
  4709. available from psych.upenn.edu (130.91.68.31). Back issues requested by
  4710. mail will eventually be sent, but may take a while.
  4711.  
  4712. ----------------------------------------------------------------------
  4713.  
  4714. Subject: URGENT: DEADLINE CHANGE FOR WORLD CONGRESS
  4715. From:    mwitten@HERMES.CHPC.UTEXAS.EDU
  4716. Date:    Wed, 03 Nov 93 11:31:42 -0600
  4717.  
  4718.                    UPDATE ON DEADLINES
  4719. FIRST WORLD CONGRESS ON COMPUTATIONAL MEDICINE, PUBLIC
  4720.              HEALTH, AND BIOTECHNOLOGY
  4721.                     24-28 April 1994
  4722.                    Hyatt Regency Hotel
  4723.                      Austin, Texas
  4724. - ----- (Feel Free To Cross Post This Announcement) ----
  4725.  
  4726. Due to a confusion in the electronic distribution of the congress
  4727. announcement and deadlines, as well as incorrect deadlines appearing in a
  4728. number of society newsletters and journals, we are extending the abstract
  4729. submission deadline for this congress to 31 December 1993.  We apologize
  4730. to those who were confused over the differing deadline announcements and
  4731. hope that this change will allow everyone to participate. For congress
  4732. details:
  4733.  
  4734. To contact the congress organizers for any reason use any of the
  4735. following pathways:
  4736.  
  4737. ELECTRONIC MAIL - compmed94@chpc.utexas.edu
  4738.  
  4739. FAX (USA)       - (512) 471-2445
  4740.  
  4741. PHONE (USA)     - (512) 471-2472
  4742.  
  4743. GOPHER: log into the University of Texas System-CHPC select the
  4744. Computational Medicine and Allied Health menu choice
  4745.  
  4746. ANONYMOUS FTP: ftp.chpc.utexas.edu
  4747.              cd /pub/compmed94
  4748.         (all documents and forms are stored here)
  4749.  
  4750. POSTAL:
  4751.             Compmed 1994
  4752.       University of Texas System CHPC
  4753.             Balcones Research Center
  4754.             10100 Burnet Road, 1.154CMS
  4755.             Austin, Texas 78758-4497
  4756.  
  4757. SUBMISSION PROCEDURES: Authors must submit 5 copies of a single-page
  4758. 50-100 word abstract clearly discussing the topic of their presentation.
  4759. In addition, authors must clearly state their choice of poster,
  4760. contributed paper, tutorial, exhibit, focused workshop or birds of a
  4761. feather group along with a discussion of their presentation. Abstracts
  4762. will be published as part of the preliminary conference material. To
  4763. notify the congress organizing committee that you would like to
  4764. participate and to be put on the congress mailing list, please fill out
  4765. and return the form that follows this announcement.  You may use any of
  4766. the contact methods above. If you wish to organize a contributed paper
  4767. session, tutorial session, focused workshop, or birds of a feather group,
  4768. please contact the conference director at mwitten@chpc.utexas.edu . The
  4769. abstract may be submitted electronically to compmed94@chpc.utexas.edu or
  4770. by mail or fax. There is no official format.
  4771.  
  4772.  
  4773. If you need further details, please contact me.
  4774.  
  4775. Matthew Witten
  4776. Congress Chair
  4777. mwitten@chpc.utexas.edu
  4778.  
  4779.  
  4780. ------------------------------
  4781.  
  4782. Subject: Colloquium on Advances in Neurocontrol
  4783. From:    Rafal W Zbikowski <rafal@udcf.gla.ac.uk>
  4784. Date:    Fri, 12 Nov 93 11:41:16 +0000
  4785.  
  4786.  
  4787. Contributed by: Ken Hunt <hunt@DBresearch-berlin.de>
  4788.  
  4789.  
  4790.                 CALL FOR PAPERS
  4791.                 ---------------
  4792.  
  4793.                 IEE Colloquium on Advances in Neural Networks
  4794.                 for Control and Systems
  4795.  
  4796.                 26-27 May 1994
  4797.                 Daimler-Benz Systems Technology Research
  4798.                 Berlin, Germany
  4799.  
  4800.  
  4801. A colloquium on `Advances in neural networks for control and systems' is
  4802. being organised by the control committees of the Institution of
  4803. Electrical Engineers. This two-day meeting will be held on 26-27 May 1994
  4804. at Daimler-Benz Systems Technology Research in Berlin. The programme will
  4805. comprise a mix of invited papers and papers received in response to this
  4806. call. Invited speakers include leading international academic workers in
  4807. the field and major industrial companies who will present recent
  4808. applications of neural methods, and outline the latest theoretical
  4809. advances.
  4810.  
  4811. Neural networks have been seen for some years now as providing
  4812. considerable promise for application in nonlinear control and systems
  4813. problems. This promise stems from the theoretical ability of networks of
  4814. various types to approximate arbitrarily well continuous nonlinear
  4815. mappings.
  4816.  
  4817. The aim of this colloquium is to evaluate the state-of-the-art in this
  4818. very popular field from the engineering perspective.  The colloquium will
  4819. cover both theoretical and applied aspects. A major goal of the workshop
  4820. will be to examine ways of improving the engineering involved in neural
  4821. network modelling and control, so that the theoretical power of learning
  4822. systems can be harnessed for practical applications. This includes
  4823. questions such as: which network architecture for which application?  Can
  4824. constructive learning algorithms capture the underlying dynamics while
  4825. avoiding overfitting? How can we introduce a priori knowledge or models
  4826. into neural networks? Can experiment design and active learning be used
  4827. to automatically create 'optimal' training sets? How can we validate a
  4828. neural network model?
  4829.  
  4830. In line with this goal of better engineering methods, the colloquium will
  4831. also place emphasis on real industrial applications of the technology;
  4832. applied papers are most welcome.
  4833.  
  4834. Prospective authors are invited to submit three copies of a 500-word
  4835. abstract by Friday 25 February 1994 to Dr K J Hunt, Daimler-Benz AG,
  4836. Alt-Moabit 91 B, D-10559 Berlin, Germany (tel: + 49 30 399 82 275, FAX: +
  4837. 49 30 399 82 107, E-mail: hunt@DBresearch-berlin.de).
  4838.  
  4839.  
  4840. ------------------------------
  4841.  
  4842. Subject: Wavelet Transform Short Course at UCLA
  4843. From:    "Watanabe, Nonie" <NWatanab@UNEX.UCLA.EDU>
  4844. Date:    Fri, 12 Nov 93 17:42:00 -0800
  4845.  
  4846. Announcing a UCLA Extension Short Course...
  4847.  
  4848. Wavelet Transform: Techniques and Applications
  4849. March 7-11, 1994 at UCLA
  4850.  
  4851. OVERVIEW
  4852. For many years, the Fourier Transform (FT) has been used in a wide variety of
  4853. application areas, including multimedia compression of wideband ISDN for
  4854. telecommunications; lossless transform for fingerprint storage,
  4855. identification, and retrieval; an increased S/N ratio for target
  4856. discrimination in oil prospect seismic imaging; in-scale and
  4857. rotation-invariant pattern recognition in automatic target recognition; and
  4858. in-heart, tumor, and biomedical research.
  4859.  
  4860. This course describes a new technique, the Wavelet Transform (WT), that is
  4861. replacing the windowed FT in the applications mentioned above. The WT uses
  4862. appropriately matched bandpass kernels, called mother wavelets, thereby
  4863. enabling improved representation and analysis of wideband, transient, and
  4864. noisy signals. The principal advantages of the WT are 1) its localized nature
  4865. which accepts less noise and enhances the SNR, and 2) the new problem-solving
  4866. paradigm it offers in the treatment of nonlinear problems. The course covers
  4867. WT principles as well as adaptive techniques, describing how WTs mimic human
  4868. ears and eyes by tuning up "best mothers" to spawn "daughter" wavelets that
  4869. catch multi-resolution components to be fed the expansion coefficient through
  4870. an artificial neural network, called a wavenet. This in turn provides the
  4871. useful automation required in multiple application areas, a powerful tool
  4872. when the inputs are constrained by real-time sparse data (for example, the
  4873. "cocktail party" effect where you perceive a desired message from the
  4874. cacophony of a noisy party).
  4875.  
  4876. Another advancement discussed in the course is the theory and experiment for
  4877. solving nonlinear dynamics for information processing; e.g., the
  4878. environmental simulation as a non-real-time virtual reality. In other words,
  4879. real-time virtual reality can be achieved by the wavelet compression
  4880. technique, followed by an optical flow technique to acquire those wavelet
  4881. transform coefficients, then applying the inverse WT to retrieve the virtual
  4882. reality dynamical evolution. (For example, an ocean wave is analyzed by
  4883. soliton envelope wavelets.)
  4884.  
  4885. Finally, implementation techniques in optics and digital electronics are
  4886. presented, including optical wavelet transforms and wavelet chips.
  4887.  
  4888. COURSE MATERIALS
  4889. Course notes and relevant software are distributed on the first day of the
  4890. course. These notes are for participants only, and are not for sale.
  4891.  
  4892. COORDINATOR AND LECTURER
  4893. Harold Szu, PhD
  4894. Research Physicist, Washington, D.C. Dr. Szu's current research involves
  4895. wavelet transforms, character recognition, and constrained optimization
  4896. implementable on a superconducting optical neural network computer. He is
  4897. also involved with the design of a sixth-generation computer based on the
  4898. confluence of neural networks and new optical data base machines. Dr. Szu is
  4899. also a technical representative to DARPA and consultant to ONR on neural
  4900. networks and related research, and has been engaged in plasma physics and
  4901. optical engineering research for the past 16 years. He holds five patents,
  4902. has published about 100 technical papers, plus two textbooks. Dr. Szu is an
  4903. editor for the journal Neural Networks and currently serves as the President
  4904. of the International Neural Network Society.
  4905.  
  4906. LECTURER AND UCLA FACULTY REPRESENTATIVE
  4907. John D. Villasenor, PhD
  4908. Assistant Professor, Department of Electrical Engineering, School of
  4909. Engineering and Applied Science, UCLA. Dr. Villasenor has been instrumental
  4910. in the development of a number of efficient algorithms for a wide range of
  4911. signal and image processing tasks. His contributions include application-
  4912. specific optimal compression techniques for tomographic medical images,
  4913. temporal change measures using synthetic aperture radar, and motion
  4914. estimation and image modeling for angiogram video compression. Prior to
  4915. joining UCLA, Dr. Villasenor was with the Radar Science and Engineering
  4916. section of the Jet Propulsion Laboratory where he applied synthetic aperture
  4917. radar to interferometric mapping, classification, and temporal change
  4918. measurement. He has also studied parallelization of spectral analysis
  4919. algorithms and multidimensional data visualization strategies. Dr.
  4920. Villasenor's research activities at UCLA include still-frame and video
  4921. medical image compression, processing and interpretation of satellite remote
  4922. sensing images, development of fast algorithms for one- and two-dimensional
  4923. spectral analysis, and studies of JPEG-based hybrid video coding techniques.
  4924.  
  4925. DAILY SCHEDULE
  4926. Monday (Szu)
  4927. Introduction to Wavelet Transform (WT)
  4928. - - Formulation of small group projects using WT
  4929.   --Theory, signal, image, sound, etc.
  4930.  
  4931. Review of WT
  4932. - - Historical: Haar 1910, Gabor 1942, Morlet 1985
  4933. - - Definition of WT
  4934.  
  4935. Applications: Principles by Dimensionality, Functionality
  4936. - - Signal processing: oil exploration, heart diagnosis
  4937. - - Image processing: lossless compression, fingerprint
  4938. - - Telecommunication: multi-medium wide-band ISDN
  4939.  
  4940. Discrete and Continuous Mathematics of WT
  4941. - - Example: Haar WT and Daubechies WT
  4942. - - Complexity Pyramid Theorem:
  4943.   --Holy Grail: order (N) complexity for discrete WT
  4944. - - Connection with continuous WT
  4945.   --Inverse CWT, Completeness Theorem
  4946. - - WT normalizations, causality conditions
  4947.  
  4948. Tuesday Morning (Villasenor)
  4949. Discrete Wavelet Transforms
  4950. - - Background: motivation, multiresolution analysis, Laplacian pyramid coding
  4951. - - Brief review of relevant digital signal processing concepts/notation
  4952. - - Discrete wavelet transforms in one dimension: conceptual background, QMF
  4953.   filter banks, regularity, examples
  4954.  
  4955. Tuesday Afternoon (Villasenor and Szu)
  4956. Computer Laboratory Demonstration
  4957. - - Sound compression
  4958. - - Adaptive speech wavelet code
  4959. - - Image transforms using wavelets
  4960.  
  4961. Wednesday (Szu)
  4962. Adaptive Wavelet Transform
  4963. - - Practical examples: ears, eyes
  4964. - - Mathematics of optimization
  4965. - - Applications: cocktail party effect, hyperacuity paradox
  4966.  
  4967. Examples: Superposition Mother Wavelets
  4968. - - For phonemes
  4969. - - For speaker ID
  4970. - - For mine field
  4971.  
  4972. Nonlinear WT Applications: Soliton WT Kernel
  4973. - - Practical examples: ocean waves, cauchy sea states
  4974. - - Paradigms for solving nonlinear dynamics
  4975.   --FT paradigm: FT first & mode-mode coupling
  4976.   --WT paradigm: NL solution as mother wavelet that "enjoys" linear
  4977.     superposition
  4978.  
  4979. Thursday (Villasenor)
  4980. Discrete Wavelet Transforms II
  4981. - - Wavelet filter design: ensuring regularity, tradeoffs in filter length,
  4982.   filter evaluation criteria
  4983. - - 2D wavelet transforms and applications: extension of wavelets to two
  4984.   dimensions, computational and practical considerations
  4985. - - Image compression: techniques for coding of wavelet transforms, comparison
  4986.   with JPEG, extension to video coding
  4987. - - Future trends in image processing using wavelets
  4988.  
  4989. Friday (Szu)
  4990. Comparison
  4991. - - Quadrature mirror filter vs. perfect inverse image filter
  4992.   --Regularity
  4993.   --Decimation
  4994.   --Sampling theorem
  4995.  
  4996. WT Implementation Issues
  4997. - - Optical WT
  4998.   --Real-time image compression and transmission
  4999. - - WT chips
  5000.   --WT butterfly
  5001.  
  5002. Advanced Applications in WT
  5003. - - Virtual reality
  5004. - - Environmental representation: surveillance planning
  5005. - - Real-time techniques
  5006.   --Wavelet compression
  5007.   --Optical flow of WT coefficients
  5008.   --Inverse WT
  5009.  
  5010. Problem-Solving Methodology
  5011. - - Four principles for creative research
  5012.  
  5013. Research Project Presentations
  5014. - - Signal processing groups
  5015. - - Image processing groups
  5016. - - Implementation groups
  5017.  
  5018. Date:      March 7-11 (Monday through Friday)
  5019. Time:      8 am-5 pm (subject to adjustment after the first class meeting),
  5020.            plus optional evening sessions, times to be determined.
  5021. Location:  Room G-33 West, UCLA Extension Building, 10995 Le Conte Avenue
  5022.            (adjacent to the UCLA campus), Los Angeles, California
  5023. Course No. Engineering 867.121
  5024. Fee:       $1495, includes course materials
  5025.  
  5026. To reserve a place in this course and/or request an application form, call
  5027. the UCLA Extension Short Course Program Office at (310) 825-3344; FAX (310)
  5028. 206-2815.
  5029.  
  5030.  
  5031.  
  5032.  
  5033. ------------------------------
  5034.  
  5035. Subject: Int'l Conf. on Evolutionary Computation / PPSN-94
  5036. From:    maenner@mp-sun1.informatik.uni-mannheim.de (Reinhard Maenner)
  5037. Date:    Mon, 15 Nov 93 20:49:56 +0100
  5038.  
  5039.  
  5040.              INTERNATIONAL CONFERENCE ON EVOLUTIONARY COMPUTATION
  5041.            THE THIRD PARALLEL PROBLEM SOLVING FROM NATURE (PPSN III)
  5042.  
  5043.  
  5044.                       JERUSALEM, ISRAEL, OCTOBER 9-14, 1994
  5045.  
  5046.                     FIRST ANNOUNCEMENT AND CALL FOR PAPERS
  5047.  
  5048.  
  5049. CONFERENCE COMMITTEE:
  5050.  
  5051. Y. Davidor            H.-P. Schwefel              R. Maenner
  5052. Conference Chair      Programme Co-Chair          Programme Co-Chair
  5053. C/O Ortra Ltd.        Universitaet Dortmund       Universitaet Mannheim
  5054. P.O. Box 50432        Lehrstuhl Informatik XI     Lehrstuhl fuer Informatik V
  5055. Tel Aviv 61500,       D-44221 Dortmund,           D-68131 Mannheim,
  5056. Israel                Germany                     Germany
  5057. Tel.: +972-3-664 825  Tel.: +49-231-755 4590      Tel.: +49-621-292 5758
  5058. Fax:  +972-3-660 952  Fax:  +49-231-755 2450      Fax:  +49-621-292 5756
  5059.                       schwefel@LS11.informatik.    maenner@mp-sun1.informatik.
  5060.                                uni-dortmund.de             uni-mannheim.de
  5061.  
  5062.  
  5063. PPSN STEERING COMMITTEE:
  5064.  
  5065. Y.  Davidor (Israel)      B.  Manderick (The Netherlands)
  5066. K.  De Jong (USA)         H.  Muhlenbein (Germany)
  5067. H.  Kitano (Japan)        H.-P. Schwefel (Germany)
  5068. R.  Maenner (Germany)
  5069.  
  5070.  
  5071. The International Conference on Evolutionary Computation - The Third
  5072. Parallel Problem Solving from Nature (PPSN III) will be held in Jerusalem,
  5073. Israel between 9-14 October, 1994. This meeting will bring together an
  5074. international community from academia, government and industry interested
  5075. in algorithms suggested by the unifying theme of natural computation.
  5076.  
  5077. Natural computation is a common name for the design, theoretical and
  5078. empirical understanding of algorithms gleaned from nature.  Characteristic
  5079. for natural computation is the metaphorical use of concepts,  principles  and
  5080. mechanisms underlying natural systems.  Examples are genetic algorithms,
  5081. evolutionary programming and evolution strategies inspired by the evolutionary
  5082. processes of mutation, recombination, and natural selection in biology,
  5083. simulated annealing inspired by many-particle systems in physics, and
  5084. algorithms inspired by multi-cellular systems like neural and immune networks.
  5085.  
  5086. Topics of particular interest include, but are not limited to: evolution
  5087. strategies, evolutionary programming,  genetic algorithms and classifier
  5088. systems, other forms of evolutionary computation, simulated annealing, neural
  5089. and immune networks, machine learning and optimization using these methods,
  5090. their relations to other learning paradigms, and mathematical description of
  5091. their behaviour.
  5092.  
  5093. The conference programme committee will particularly welcome application
  5094. papers dealing with these techniques to solve real problems in manufacturing,
  5095. design, planning and engineering providing these are of the highest level. The
  5096. application type of papers should either exhibit outstanding performance in
  5097. solving particular problems in contrast to other techniques or address real
  5098. problems of significant and unique importance to science.
  5099.  
  5100. 5 hard copies of original work in the related topics typed in 12pt single
  5101. column and maximal length of 10 pages including all figures and references
  5102. should be sent to H.-P. Schwefel, programme co-chair by March 1, 1994.  One
  5103. copy should contain the names of the authors, affiliation, and full addresses.
  5104. The remaining 4 copies should be anonymous and contain only the title and body
  5105. of paper including figures and references. This procedure is adopted to
  5106. enhance anonymous peer review.
  5107.  
  5108. The conference will be held in a kibbutz 10 minutes from the Old City of
  5109. Jerusalem on top of the Judean mountain range overlooking Bethlehem and
  5110. Jerusalem.  The conference programme will include visits to historical,
  5111. religious and contemporary monuments in Israel.
  5112.  
  5113.  
  5114. IMPORTANT DATES:
  5115.  
  5116. March 1, 1994 - Submission of full paper
  5117. May 30,  1994 - Notification to authors
  5118. July 1,  1994 - Submission of revised, final camera ready papers
  5119.  
  5120.  
  5121. GENERAL INFORMATION
  5122.  
  5123. Venue
  5124.  
  5125. The conference will be held at the Mitzpeh Rachel Kibbutz Congress Center on
  5126. the southern outskirts of Jerusalem, overlooking Bethlehem.  A swimming pool
  5127. and tennis courts are on the premises and there is easy access by public
  5128. transportation to the center of Jerusalem.
  5129.  
  5130. Jerusalem is an excellent location for an international convention. Just 40
  5131. minutes from the Ben Gurion International Airport, Jerusalem offers a variety
  5132. of cultural and religious experiences that link its historic past to its
  5133. dynamic present.
  5134.  
  5135. History will come alive as you discover the shrines of the world's great
  5136. religions, stroll around the walls of the Old City, visit the reconstructed
  5137. city's main streets, and enjoy the extensive collections in Jerusalem's
  5138. numerous museums that house amongst its treasures, the Dead Sea Scrolls, the
  5139. Billy Rose sculpture garden, archaeological finds, calligraphy and other
  5140. works of art.
  5141.  
  5142. As the  birthplace of Judaism and Christianity, and as one of Islam's holy
  5143. cities, Jerusalem is a captivating, uniquely significant city to millions of
  5144. people throughout the world. The conference will offer participants an
  5145. opportunity to combine a scientific gathering with the natural beauty of a
  5146. country  that enjoys a pleasant Mediterranean climate and a unique city,
  5147. Jerusalem.
  5148.  
  5149.  
  5150. Language
  5151.  
  5152. The official language of the conference is English. All lectures, posters
  5153. and printed material will be in English.
  5154.  
  5155.  
  5156. Climate
  5157.  
  5158. The weather in October in Jerusalem is sunny and mild during the day.  The
  5159. temperature is cooler in the evenings. Some rain may be expected, but not
  5160. very likely.
  5161.  
  5162.  
  5163. Clothing
  5164.  
  5165. Informal for all occasions.  Do not forget to pack a swimsuit, head covering,
  5166. sunglasses and comfortable walking shoes. A jacket or sweater is recommended
  5167. for evenings.
  5168.  
  5169.  
  5170. Visas
  5171.  
  5172. Participants from most countries do not require entry visas. If needed, visas
  5173. will be granted to all bona fide participants provided that application to the
  5174. local representative of Israel is made at least three months before arrival in
  5175. Israel.
  5176.  
  5177.  
  5178. Social Program
  5179.  
  5180. A special program and excursions are planned for the participants of the
  5181. conference and their accompanying persons.
  5182.  
  5183.  
  5184. Second Announcement
  5185.  
  5186. Further information and the second announcement will be mailed upon request.
  5187. Please advise your colleagues who may be interested in participating in the
  5188. conference.
  5189.  
  5190.  
  5191. Travel, Tours and Accommodation
  5192.  
  5193. The conference committee has appointed Ortra Ltd. as the official organizer
  5194. and travel agent of the conference.  Rooms have been reserved at the Mitzpeh
  5195. Rachel hotel (conference venue). Ortra Ltd. will  offer pre/post conference
  5196. tourist services. Further information will be published in the second
  5197. announcement.
  5198.  
  5199.  
  5200. PLEASE SUBMIT YOUR INTENTION FORM NO LATER THAN JANUARY 10, 1994
  5201.  
  5202. ==========================================================================
  5203.                                CUT HERE
  5204. ==========================================================================
  5205.  
  5206.  
  5207.            INTERNATIONAL CONFERENCE ON EVOLUTIONARY COMPUTATION
  5208.          The Third Parallel Problem Solving From Nature (PPSN III)
  5209.                     Jerusalem, Israel, October 9-14, 1994
  5210.  
  5211. (Please return to Ortra Ltd., P.O.Box 50432, Tel-Aviv 61500, Israel
  5212. or by Fax to 972-3-660952)
  5213.  
  5214.  
  5215.                               INTENTION FORM
  5216.  
  5217. Surname:                              First Name:
  5218.  
  5219. Institution:
  5220.  
  5221. Address: []Institution   []Home (please indicate)
  5222.  
  5223. e-mail:                                 Fax. No.
  5224.  
  5225. [] I intend to participate in the conference.
  5226. [] Please send me the second announcement.
  5227. [] I wish to present a paper on:
  5228. []  Please find attached names and addresses of colleagues who may be
  5229.     interested in attending the conference.
  5230.  
  5231.  
  5232. Signature:                               Date:
  5233.  
  5234.  
  5235. ------------------------------
  5236.  
  5237. Subject: NIPS Workshop
  5238. From:    "Christopher G. Atkeson" <cga@ai.mit.edu>
  5239. Date:    Tue, 16 Nov 93 15:08:16 -0500
  5240.  
  5241.  
  5242. NIPS*93 Workshop:       Memory-based Methods for Regression and Classification
  5243. =================
  5244.  
  5245. Intended Audience:      Researchers interested in memory-based methods, locality
  5246.  in learning
  5247. ==================
  5248.  
  5249. Organizers:
  5250. ===========
  5251.  
  5252. Chris Atkeson       Tom Dietterich      Andrew Moore      Dietrich Wettschereck
  5253. cga@ai.mit.edu      tgd@cs.orst.edu     awm@cs.cmu.edu    wettscd@cs.orst.edu
  5254.  
  5255. Program:
  5256. ========
  5257.  
  5258. Local, memory-based learning methods store all or most of the training
  5259. data and predict new points by analyzing nearby training points (e.g.,
  5260. nearest neighbor, radial-basis functions, local linear methods).  The
  5261. purpose of this workshop is to determine the state of the art in
  5262. memory-based learning methods and to assess current progress on
  5263. important open problems.  Specifically, we will consider such issues
  5264. as how to determine distance metrics and smoothing parameters, how to
  5265. regularize memory-based methods, how to obtain error bars on
  5266. predictions, and how to scale to large data sets.  We will also
  5267. compare memory-based methods with methods (such as multi-layer
  5268. perceptrons) that construct global decision boundaries or regression
  5269. surfaces, and we will explore current theoretical models of local
  5270. learning methods.  By the close of the workshop, we will have
  5271. assembled an agenda of open problems requiring further research.
  5272.  
  5273. This workshop meets both days.  Friday will be devoted primarily to
  5274. classification tasks, and Saturday will be devoted primarily to
  5275. regression tasks.
  5276.  
  5277. Please send us email if you would like to present something.
  5278.  
  5279. Current schedule:
  5280.  
  5281. Friday:
  5282.  
  5283. 7:30-7:45 Introduction (Dietterich)
  5284. 7:45-8:15 Leon Bottou
  5285. 8:15-8:30 Discussion
  5286. 8:30-9:00 David Lowe
  5287. 9:00-9:30 Discussion
  5288.  
  5289. 4:30-5:00 Patrice Simard
  5290. 5:00-5:15 Discussion
  5291. 5:15-5:45 Dietrich Wettschereck
  5292. 5:45-6:15 John Platt
  5293. 6:15-6:30 Discussion
  5294.  
  5295. Saturday:
  5296.  
  5297. 7:30-8:00 Trevor Hastie
  5298. 8:00-8:15 Discussion
  5299. 8:15-8:45 Doyne Farmer
  5300. 8:45-9:00 Discussion
  5301. 9:00-9:30 5-minute descriptions by other participants
  5302.  
  5303. 4:30-5:00 Chris Atkeson
  5304. 5:00-5:30 Frederico Girosi
  5305. 5:30-6:00 Andrew Moore
  5306. 6:00-6:30 Discussion
  5307.  
  5308.  
  5309. ------------------------------
  5310.  
  5311. Subject: 10th Israeli IAICVNN Symposium, 27-28 Dec.
  5312. From:    Yaakov Stein <stein@mars.fiz.huji.ac.il>
  5313. Date:    Thu, 18 Nov 93 12:49:12 +0200
  5314.  
  5315.  
  5316. The 10th Israeli Symposium on Artificial Intelligence,
  5317. Computer Vision and Neural Networks will be held
  5318. December 27'th and 28'th, at the convention center in
  5319. Kfar Maccabiah, Ramat Gan, Israel.
  5320. The conference, sponsored by the Information Processing
  5321. Association of Israel (IPA), will offer over fifty talks
  5322. and 4 invited lectures. All talks will be written up in
  5323. published proceedings, which will be supplied to all
  5324. participants, and available for purchase after the conference.
  5325.  
  5326. Both symposium days will commence with a plenary session, attended by
  5327. all participants, and thereafter separate into three parallel tracks.
  5328. The neural network track includes sessions on
  5329.   Speech and Signal Processing,
  5330.   Optical Character Recognition,
  5331.   Hardware Implementations,
  5332.   Biological and Medical Applications,
  5333.   Architectures and Learning,
  5334.   Expert Systems and Pattern Recognition,
  5335.   Image Processing
  5336. and a panel discussion on industry and academia interaction.
  5337. Special emphasis will be placed on bridging the gap between
  5338. university and industrial research groups.
  5339.  
  5340. The symposium registration fee includes the proceedings, lunch
  5341. and coffee breaks. A block of rooms has been reserved at Kfar
  5342. Maccabiah Hotel, and are available on a first-come first-served
  5343. basis. Registration forms are available from
  5344.   10th IAICVNN Secretariat
  5345.   IPA
  5346.   Kfar Maccabiah
  5347.   Ramat Gan 52109
  5348.   ISRAEL
  5349. (Tel 972-3-6771292
  5350.  Fax 972-3-5744374)
  5351.  
  5352. Yaakov Stein
  5353. .
  5354.  
  5355.  
  5356. ------------------------------
  5357.  
  5358. Subject: FINAL call for papers for CBMS 94
  5359. From:    wes@sailboard.medeng.wfu.edu
  5360. Date:    Fri, 19 Nov 93 10:11:09 -0500
  5361.  
  5362.  
  5363.                       CBMS-94
  5364.           Advance Notice and Call for Papers
  5365. Computers in Medicine--Two Conferences, one location
  5366.  
  5367. The Seventh IEEE Symposium on Computer-Based Medical Systems
  5368. Friday-Saturday, June 10 - 11, 1994 with tutorials Saturday evening
  5369. and Sunday morning
  5370. Stouffer Hotel, Winston-Salem, NC
  5371.  
  5372. and the
  5373.  
  5374. 12th Conference for Computer Applications in Radiology
  5375.         Monday-Wednesday, June 13-15, 1994 with tutorials on Sunday
  5376.  
  5377. CBMS Sponsors
  5378.         *IEEE Computer Society  *IEEE Engineering in Medicine and Biology
  5379.  Society
  5380.         *The Winston-Salem Section of the IEEE
  5381.         * with local support by the Bowman Gray School of Medicine
  5382.  
  5383. The Symposium is intended for engineers and computer scientists in academia
  5384. and industry who are designing and developing Computer-Based Medical Systems
  5385. (CBMS). Biomedical engineers, computer scientists, medical residents,
  5386. physicians, and students who are working on medical projects that involve
  5387. computers are encouraged to submit papers describing their work.
  5388.  
  5389. The conference is run this year in coordination with the annual SCAR
  5390. (Society for Computer Application in Radiology) meeting, starting on Sunday,
  5391. June 13, at the Winston-Salem Civic Center, next door to the Stouffer.
  5392. CBMS attendees will therefore have the opportunity to combine two excellent
  5393. conferences in one trip.
  5394.  
  5395. The Program
  5396.  
  5397. CBMS combines technical papers, poster presentations, panel discussions,
  5398. tutorials and research laboratory tours. Papers covering the following
  5399. related areas are requested:
  5400.  
  5401. *Device Reliability and Safety          *Neural Networks and Expert Systems
  5402.    fault-tolerance, device testing,        theory, implementations,
  5403.    validation and software safety          pattern recognition, applications
  5404.  
  5405. *Image Processing and Analysis          *Prosthetic Devices
  5406.  registration, compression,              Environmental control, word processing
  5407.  enhancement, restoration,               devices for the hearing and vision
  5408.  reconstruction, hardware                impaired, standards
  5409.  
  5410. *Signal Processing                      *Cardiovascular Technologies
  5411.  algorithms, hardware, real-time         monitoring, imaging, bioimpedance
  5412.  processing, monitoring, EEG             measurements, micro-computing,
  5413.                                          computer applications,
  5414.                                          cardiopulmonary resuscitation
  5415.  
  5416. *Information Systems                    *Clinical Assessment and Risk
  5417.                                          Evaluation
  5418. RIS, HIS, PACS, networks, databases      real-time signal processing,
  5419.                                          database systems
  5420.  
  5421. Submission of Papers
  5422. Contributions in the forms of papers, poster sessions, software
  5423. demonstrations, and tutorials in the areas listed above are invited.
  5424. Paper summaries should be limited to two pages (typed, double-spaced) and
  5425. should include the title, names of authors, and the address and telephone
  5426. number of the corresponding author. Send four copies of your contributions to:
  5427. (Authors west of the Mississippi and Asia) Nassrin Tavakoli, Info Enterprises,
  5428. 3260 N. Colorado Street, Chandler, AZ 85225-1123. or (Authors east of the
  5429. Missippi and Europe) Paul Kizakevich, Research Triangle Institute,
  5430. POBox 12194, Research Triangle Park, NC 27709.
  5431.  
  5432. Student Paper Contest
  5433.  
  5434. Student papers are invited and considered for the contest. Winners of the
  5435. contest will be selected by the Student Paper Contest Committee and awards
  5436. will be announced and made the symposium. Awards will consist of a
  5437. certificate and monetary prize as follows:
  5438. First Prize: $500; Second Prize: $300; Third Prize: $150.
  5439. To be eligible, the student must be the first author of an accepted paper,
  5440. and must present the paper at CBMS `94.
  5441.  
  5442. Deadlines and Key Dates
  5443.  
  5444. Paper summaries due:    December 1, 1993        Notice of acceptance:
  5445. February 1, 1994
  5446.  
  5447. Camera ready papers due:        March 15, 1994
  5448.  
  5449. _________________________________________
  5450. Wesley E. Snyder                         |
  5451. Professor of Electrical Engineering      |
  5452.      North Carolina State University     |
  5453. Professor of Radiology                   |
  5454.      Bowman Gray School of Medicine      |
  5455. Email wes@relito.medeng.wfu.edu          |
  5456. (919)-716-3908                           |
  5457. _________________________________________|
  5458.  
  5459.  
  5460.  
  5461.  
  5462. ------------------------------
  5463.  
  5464. End of Neuron Digest [Volume 12 Issue 18]
  5465. *****************************************
  5466. Received: from BUACCA by BUACCA.BU.EDU (Mailer R2.08 PTF009) with BSMTP id
  5467.  0172; Fri, 19 Nov 93 20:29:36 EST
  5468. Received: from noc4.dccs.upenn.edu by BUACCA.BU.EDU (IBM VM SMTP R1.2.1) with
  5469.  TCP; Fri, 19 Nov 93 20:29:32 EST
  5470. Received: from CATTELL.PSYCH.UPENN.EDU by noc4.dccs.upenn.edu
  5471.     id AA29008; Fri, 19 Nov 93 20:28:58 -0500
  5472. Return-Path: <marvit@cattell.psych.upenn.edu>
  5473. Received: from LOCALHOST by cattell.psych.upenn.edu
  5474.     id AA11245; Fri, 19 Nov 93 19:48:30 EST
  5475. Posted-Date: Fri, 19 Nov 93 19:47:46 EST
  5476. From: "Neuron-Digest Moderator" <neuron-request@CATTELL.PSYCH.UPENN.EDU>
  5477. To: Neuron-Distribution:;
  5478. Subject: Neuron Digest V12 #19 (CFP for WCNN '94 conference)
  5479. Reply-To: "Neuron-Request" <neuron-request@CATTELL.PSYCH.UPENN.EDU>
  5480. X-Errors-To: "Neuron-Request" <neuron-request@psych.upenn.edu>
  5481. Organization: University of Pennsylvania
  5482. Date: Fri, 19 Nov 93 19:47:46 EST
  5483. Message-Id: <11237.753756466@cattell.psych.upenn.edu>
  5484. Sender: marvit@cattell.psych.upenn.edu
  5485.  
  5486. Neuron Digest   Friday, 19 Nov 1993
  5487.                 Volume 12 : Issue 19
  5488.  
  5489. Today's Topics:
  5490.                  WCNN 1994 CALL FOR PAPERS - Submission
  5491.  
  5492.  
  5493. Send submissions, questions, address maintenance, and requests for old
  5494. issues to "neuron-request@psych.upenn.edu". The ftp archives are
  5495. available from psych.upenn.edu (130.91.68.31). Back issues requested by
  5496. mail will eventually be sent, but may take a while.
  5497.  
  5498. ----------------------------------------------------------------------
  5499.  
  5500. Subject: WCNN 1994 CALL FOR PAPERS - Submission
  5501. From:    Morgan Downey <70712.3265@CompuServe.COM>
  5502. Date:    08 Nov 93 15:46:48 -0500
  5503.  
  5504. WORLD CONGRESS ON NEURAL NETWORKS 1994 (WCNN '94)
  5505. Annual Meeting of the International Neural Network Society
  5506. Town and Country Hotel - San Diego, California, USA - June 4-9, 1994
  5507.  
  5508. CALL FOR PAPERS
  5509. deadline December 10, 1993
  5510.  
  5511. WHY WCNN '94?
  5512.  
  5513. INNS has incorporated many of your suggestions from earlier IJCNNs, WCNNs to
  5514. create the best conference on neural networks to date. These include:
  5515. * A more comprehensive learning experience. The new 2-day INNS University Short
  5516. Course format provides courses twice as long and in-depth as any other tutorial
  5517. program.
  5518. * The latest advances in the field. New sessions in chaos, mathematics,
  5519. neuroprocessing and virtual reality, prediction, and AI plus special session on
  5520. some of the latest applications of neural networks.
  5521. * A better opportunity to attend the talks you want to hear. The invited talks
  5522. at WCNN '94 sessions will be staggered and will not run in competition with each
  5523. other. You will not have to choose between invited talks.
  5524. * More opportunities to present your work. WCNN '94 has opened up new categories
  5525. for paper submission to encourage your participation. Read the Call for Papers
  5526. below.
  5527. * The latest software and hardware applications. The new Neural Network
  5528. Industrial Exposition will be a dedicated event demonstrating the latest
  5529. products in neural networks and hosted by industry experts.
  5530. * Many other improvements based on your responses to past meetings.
  5531.  
  5532. ________________________________________________________________________
  5533. CALL FOR PAPERS:
  5534.  
  5535. Papers must be received by December 10, 1993. The deadline will NOT be extended.
  5536. Authors must submit registration payment with papers to be eligible for the
  5537. early registration fee. Six (6) copies (1 original, (5) copies) are required for
  5538. submission. Do not fold or staple originals. Six page limit, in English. $20 per
  5539. page for papers exceeding (6) pages (do not number pages). Checks for overlength
  5540. charges should be made out to INNS and Must be included with submitted paper.
  5541. Papers must be: camera-ready on 8 1/2 inch x 11 inch white paper with 1 inch
  5542. margins on all sides, one column format, single spaced, in Times or similar type
  5543. style of 10 points or larger, one side of paper only. FAX's not acceptable. By
  5544. submitting a previously unpublished paper, author agrees to the transfer of the
  5545. copyright to INNS for the conference proceedings. Centered at top of first page
  5546. should be complete title, author name(s), affiliation(s), and mailing
  5547. address(es), followed by blank space, abstract (up to 15 lines) and text. The
  5548. following information MUST be included in an accompanying cover letter in order
  5549. for the paper to be reviewed: Full title of paper, corresponding author(s) and
  5550. presenting author name, address, telephone and fax numbers, Technical Session
  5551. (see session topics) 1st and 2nd choices, oral and poster presentation
  5552. preferred, audio visual requirements (for oral presentations only) and INNS
  5553. Members number. Papers to be sent to the address at the end of this
  5554. announcement, Attention: Program Chairs. INNS members will be allowed a chance
  5555. for revision. In order to be eligible for revision, your cover letter MUST
  5556. include your INNS member number.
  5557.  
  5558. All members of INNS up to the paper deadline may designate up to one paper with
  5559. themselves as an author for automatic acceptance. This guarantees only a poster
  5560. presentation and abstract publication for that paper.
  5561.  
  5562. INNS members and other may submit papers already accepted by journals, or
  5563. publicly accessible Tech reports, in lieu of a paper, for consideration as the
  5564. basis of an oral presentation. In such a case, the members must submit at least
  5565. three copies of the relevant paper, along with an abstract of the talk which
  5566. clearly cites the paper well enough to permit easy access to it. When such talks
  5567. are accepted, then only the abstracts will be published.
  5568.  
  5569.  
  5570. When to choose a poster presentation: more than 15 minutes are need; author does
  5571. not wish to run concurrently with an invited talk; work is a continuation of
  5572. previously publication; author seeks a lively discussion opportunity or to
  5573. solicit future collaboration. NOTE: An award for Best Poster will be made for
  5574. each session.
  5575.  
  5576. ________________________________________________________________________
  5577. SCHEDULE:
  5578.  
  5579. Saturday, June 4, 1994 and Sunday, June 5, 1994
  5580. INNS UNIVERSITY SHORT COURSES
  5581.  
  5582. Monday, June 6, 1994
  5583. NEURAL NETWORK INDUSTRIAL EXPOSITION
  5584. RECEPTION
  5585. OPENING CEREMONY
  5586.  
  5587. Tuesday, June 7, 1994
  5588. PARALLEL SESSIONS
  5589. EXHIBITS
  5590. SPECIAL SESSION ON "BIOMEDICAL APPLICATIONS"
  5591. SPECIAL SESSION ON "COMMERCIAL AND INDUSTRIAL APPLICATIONS"
  5592. PLENARY 1: LOTFI ZADEH
  5593. PLENARY 2: PER BAK
  5594.  
  5595. Wednesday, June 8, 1994
  5596. PARALLEL SESSIONS
  5597. EXHIBITS
  5598. SPECIAL SESSION ON "FINANCIAL AND ECONOMIC APPLICATIONS"
  5599. PLENARY 1: BERNARD WIDROW
  5600. PLENARY 2: MELANIE MITCHELL
  5601. SPECIAL INTEREST GROUP (SIGINNS) SESSIONS
  5602.  
  5603. Thursday, June 9, 1994
  5604. PARALLEL SESSIONS
  5605. EXHIBITS
  5606. SPECIAL SESSION ON "NEURAL NETWORKS IN CHEMICAL ENGINEERING"
  5607. SPECIAL SESSION ON "MIND, BRAIN, AND CONSCIOUSNESS"
  5608. PLENARY 1: PAUL WERBOS
  5609. PLENARY 2: JOHN TAYLOR
  5610.  
  5611. Friday, June 10, 1994 and Saturday, June 11, 1994
  5612. SATELLITE MEETING: WNN/FNN 94 SAN DIEGO - NEURAL NETWORKS AND FUZZY LOGIC
  5613. Sponsoring Society: NASA (National Aeronautics and Space Administration)
  5614. Cooperating: INNS, Society for Computer Simulation, SPIE and all other
  5615. interested societies.
  5616. For more information contact: Mary Lou Padgett, Auburn University, 1165 Owens
  5617. Road, Auburn AL 36830 ph: 205-821-2472 or 3488; fax: 205-844-1809; e-mail:
  5618. mpadgett@eng.auburn.edu -- NASA Rep: Robert Savely, NASA/JSC
  5619.  
  5620. ______________________________________________________________
  5621. WCNN 1994 ORGANIZING COMMITTEE:
  5622.  
  5623. Paul Werbos, Chair    Harold Szu    Bernard Widrow
  5624. Liaison to the European Neural Network Society: John G. Taylor
  5625. Liaison to the Japanese Neural Network Society: Kunihiko Fukushima
  5626.  
  5627. PROGRAM COMMITTEE:
  5628.  
  5629. Daniel Alkon
  5630. Shun-ichi Amari
  5631. James A. Anderson
  5632. Richard Andersen
  5633. Kaveh Ashenayi
  5634. Andrew Barto
  5635. David Brown
  5636. Horacio Bouzas
  5637. Gail Carpenter
  5638. David Casasent
  5639. Ralph Castain
  5640. Joel Davis
  5641. Judith Dayhoff
  5642. Guido DeBoeck
  5643. David Fong
  5644. Walter Freeman
  5645. Kunihiko Fukushima
  5646. Michael Georgiopoulos
  5647. Lee Giles
  5648. Stephen Grossberg
  5649. Dan Hammerstrom
  5650. Harold Hawkins
  5651. Robert Hecht-Nielsen
  5652. Takayuki Ito*
  5653. Akira Iwata*
  5654. Robert Jannarone
  5655. Jari Kangas*
  5656. Christof Koch
  5657. Teuvo Kohonen
  5658. Bart Kosko
  5659. Clifford Lau
  5660. Hwang Soo Lee*
  5661. Soo-Young Lee
  5662. George Lendaris
  5663. Daniel Levine
  5664. Alianna Maren
  5665. Kenneth Marko
  5666. Thomas McAvoy
  5667. Thomas McKenna
  5668. Larry Medsker
  5669. Erkki Oja
  5670. Robert Pap
  5671. Rich Peterson
  5672. V.S. Ramachandran*
  5673. Gerhardt Roth
  5674. David Rumelhart*
  5675. Mohammed Sayeh
  5676. Michael Shadlen
  5677. Dejan Sobajic
  5678. William Softky
  5679. Harold Szu
  5680. John Taylor
  5681. Brian Telfer
  5682. Shiro Usui
  5683. John Weinstein
  5684. Bernard Widrow
  5685. Takeshi Yamakawa
  5686. Lotfi Zadeh
  5687. Mona Zaghloul
  5688.  
  5689. *Invited. More individuals may be asked to participate.
  5690.  
  5691. COOPERATING SOCIETIES/INSTITUTIONS:
  5692.  
  5693. American Association for Artificial Intelligence
  5694. American Institute for Chemical Engineers
  5695. American Physical Society
  5696. Center for Devices and Radiological Health, US Food and Drug Administration
  5697. Cognitive Science Society
  5698. European Neural Network Society
  5699. International Fuzzy Systems Association
  5700. Japanese Neural Network Society
  5701. Korean Neural Network Society
  5702. US National Institute of Allergy and Infectious Diseases
  5703. US Office of Naval Research
  5704. Society for Manufacturing Engineers
  5705. SPIE - The International Society for Optical Engineering
  5706. Division of Cancer Treatment, US National Cancer Institute
  5707.  
  5708. ________________________________________________________________________
  5709. SESSIONS AND CHAIRS:
  5710.  
  5711. 1 Biological Vision ... S. Grossberg, V.S. Ramachandran*
  5712. Invited Talk: Stephen Grossberg - Recent Results in Biological Vision
  5713.  
  5714. 2 Machine Vision ... K. Fukushima, R. Hecht-Nielsen
  5715. Invited Talk: Kunihiko Fukushima - Visual Pattern Recognition with Selective
  5716. Attention
  5717. Invited Talk: Robert Hecht-Nielsen - Foveal Active Vision: Methods, Results, and
  5718. Prospects
  5719.  
  5720. 3 Speech and Language ... D. Rumelhart*, T. Peterson
  5721.  
  5722. 4 Biological Neural Networks ... T. McKenna, J. Davis
  5723.         Session One: From Biological Networks to Silicon
  5724.                 Invited Speakers:       Frank Werblin, UC Berkeley
  5725.                                         Richard Granger, UC Irvine
  5726.                                         Theodore Berger, USC
  5727.         Session Two: Real Neurons in Networks
  5728.                 Invited Speakers: Jim Schwaber, DuPont
  5729.                                         Misha Mahowald, Oxford University
  5730.                                         David Stenger, NRL
  5731.         Session Three: Networks for Motor Control and Audition
  5732.                 Invited Speakers:       Randy Beer, Case Western Reserve
  5733. University
  5734.                                         Daniel Bullock, Boston University
  5735.                                         Shihab Shamma, University of Maryland
  5736.         Session Four: Learning and Cognition and Biological Networks
  5737.                 Invited Speakers: Mark Gluck, Rutgers University
  5738.                                         Nestor Schmajuk, Northwestern University
  5739.                                         Michael Hasselmo, Harvard University
  5740.  
  5741. 5 Neurocontrol and Robotics ... A. Barto, K. Ashenayi
  5742.  
  5743. 6 Supervised Learning ... G. Lendaris, S-Y. Lee
  5744. Invited Talk: George Lendaris - Apriori Knowledge and NN Architectures
  5745. Invited Talk: Soo-Young Lee - Error Minimization, Generalization, and Hardware
  5746. Implementability of Supervised Learning
  5747.  
  5748. 7 Unsupervised Learning ... G. Carpenter, R. Jannarone
  5749. Invited Talk: Gail Carpenter - Distributed Recognition Codes and Catastrophic
  5750. Forgetting
  5751. Invited Talk: Robert Jannarone - Current Trends of Learning Algorithms
  5752.  
  5753. 8 Pattern Recognition ... T. Kohonen, B. Telfer
  5754. Invited Talk: Teuvo Kohonen - Physiological Model for the Self-Organizing
  5755. Map
  5756. Invited Talk: Brian Telfer - Challenges in Automatic Object Recognition:
  5757. Adaptivity, Wavelets, Confidence
  5758.  
  5759. 9 Prediction and System Identification ... P. Werbos, G. Deboeck
  5760. Invited Talk: Guido Deboeck - Neural, Genetic, and Fuzzy Systems for Trading
  5761. Chaotic Financial Markets
  5762.  
  5763. 10 Cognitive Neuroscience ... D. Alkon, D. Fong
  5764.  
  5765. 11 Links to Cognitive Science and Artificial Intelligence ... J. Anderson, L.
  5766. Medsker
  5767. Invited Talk: Larry Medsker - Hybrid Intelligent Systems: Research and
  5768. Development Issues
  5769.  
  5770. 12 Neural Fuzzy Systems ... L. Zadeh, B. Kosko
  5771.  
  5772. 13 Signal Processing ... B. Widrow, H. Bouzas
  5773. Invited Talk: Bernard Widrow - Nonlinear Adaptive Signal Processing
  5774.  
  5775. 14 Neurodynamics and Chaos ... H. Szu, M. Zaghloul
  5776. Invited Talk: Walter Freeman - Biological Neural Network Chaos
  5777. Invited Talk: Harold Szu - Artificial Neural Network Chaos
  5778.  
  5779. 15 Hardware Implementations ... C. Lau, R. Castain, M. Sayeh
  5780. Invited Talk: Clifford Lau - Challenges in Neurocomputers
  5781. Invited Talk: Mark Holler - High Performance Classifier Chip
  5782.  
  5783. 16 Associative Memory ... J. Taylor, S. Usui*
  5784. Invited Talk: John G. Taylor - Where is Associative Memory Going?
  5785. Invited Talk: Shiro Usui - Review of Associative Memory
  5786.  
  5787. 17 Applications ... D. Casasent, B. Pap, D. Sobajic
  5788. Invited Talk: David Casasent - Optical Neural Networks and Applications
  5789. Invited Talk: Yoh-Han Pao - Mathematical Basis for the Power of the
  5790. Functional-Link Net Approach: Applications to Semiconductor Processing
  5791. Invited Talk: Mohammed Sayeh - Advances in Optical Neurocomputers
  5792.  
  5793. 18 Neuroprocessing and Virtual Reality ... L. Giles, H. Hawkins
  5794. Invited Talk: Harold Hawkins - Opportunities for Virtual Environment and
  5795. Neuroprocessing
  5796.  
  5797. 19 Circuits and System Neuroscience ... J. Dayhoff, C. Koch
  5798. Invited Talk: Judith Dayhoff - Temporal Processing for Neurobiological Signal
  5799. Processing
  5800. Invited Talk: Christof Koch - Temporal Analysis of Spike Patterns in Monkeys and
  5801. Artificial Neural Networks
  5802.  
  5803. 20 Mathematical Foundations ... S-I. Amari, D. Levine
  5804. Invited Talk: Shun-ichi Amari - Manifolds of Neural Networks and EM Algorithms
  5805.  
  5806. Additional session invited talks to be determined. Session invited talks will
  5807. not be scheduled to run concurrently at WCNN 1994. *Invited
  5808.  
  5809. INNS wishes to acknowledge the US Office of Naval Research for its generous
  5810. support of the Biological Neural Networks Session at WCNN 1994
  5811.  
  5812. ________________________________________________________________________
  5813. NEW IN '94! INNS UNIVERSITY SHORT COURSES
  5814.  
  5815. INNS is proud to announce the establishment of the INNS University Short Course
  5816. format to replace the former tutorial program. The new 2-day, 4-hour per course
  5817. format provides twice the instruction with much greater depth and detail. There
  5818. will be six parallel tracks offered in three segments (morning, afternoon, and
  5819. evening each day). INNS reserves the right to cancel Short Courses and refund
  5820. payment should registration not meet the minimum number of persons required per
  5821. Short Course. [Dates and times are listed after each instructor; course
  5822. descriptions are available by contacting INNS.]
  5823.  
  5824. A. Teuvo Kohonen, Helsinki University of Technology  - SATURDAY, JUNE 4. 1994,
  5825. 6-10 PM
  5826. Advances in the Theory and Applications of Self-Organizing Maps
  5827.  
  5828. B. James A. Anderson, Brown University  - SATURDAY, JUNE 4. 1994, 1-5 PM
  5829. Neural Network Computation as Viewed by Cognitive Science and Neuroscience
  5830.  
  5831. C. Christof Koch, California Institute of Technology  - SUNDAY, JUNE 5. 1994,
  5832. 6-10 PM
  5833. Vision Chips: Implementing Vision Algorithms with Analog VLSI Circuits
  5834.  
  5835. D. Kunihiko Fukushima, Osaka University  - SATURDAY, JUNE 4. 1994, 1-5 PM
  5836. Visual Pattern Recognition with Neural Networks
  5837.  
  5838. E. John G. Taylor, King's College London  - SUNDAY, JUNE 5. 1994, 1-5 PM
  5839. Stochastic Neural Computing: From Living Neurons to Hardware
  5840.  
  5841. F. Harold Szu, Naval Surface Warfare Center  - SATURDAY, JUNE 4. 1994, 6-10 PM
  5842. Spatiotemporal Information Processing by Means of McCollouch-Pitts and Chaotic
  5843. Neurons
  5844.  
  5845. G. Shun-ichi Amari, University of Tokyo  - SUNDAY, JUNE 5. 1994, 8 AM-12 PM
  5846. Learning Curves, Generalization Errors and Model Selection
  5847.  
  5848. H. Walter J. Freeman, University of California, Berkeley  - SUNDAY, JUNE 5.
  5849. 1994, 8 AM-12 PM
  5850. Review of Neurobiology: From Single Neurons to Chaotic Dynamics of Cerebral
  5851. Cortex
  5852.  
  5853. I. Judith Dayhoff, University of Maryland  - SATURDAY, JUNE 4. 1994, 8 AM-12 PM
  5854. Neurodynamics of Temporal Processing
  5855.  
  5856. J. Richard A. Anderson, Massachusetts Institute of Technology  - SATURDAY, JUNE
  5857. 4. 1994, 6-10 PM
  5858. Neurobiologically Plausible Neural Networks
  5859.  
  5860. K. Paul Werbos, National Science Foundation  - SUNDAY, JUNE 5. 1994, 1-5 PM
  5861. >From Backpropagation to Real-Time Control
  5862.  
  5863. L. Bernard Widrow, Stanford University  - SUNDAY, JUNE 5. 1994, 8 AM-12 PM
  5864. Adaptive Filters, Adaptive Controls,
  5865. Adaptive Neural Networks, and Applications
  5866.  
  5867. M. Gail Carpenter, Boston University  - SUNDAY, JUNE 5. 1994, 8 AM-12 PM
  5868. Adaptive Resonance Theory
  5869.  
  5870. N. Takeshi Yamakawa, Kyushu Institute of Technology  - SATURDAY, JUNE 4. 1994,
  5871. 6-10 PM
  5872. What are the Differences and the Similarities Among Fuzzy, Neural, and Chaotic
  5873. Systems?
  5874.  
  5875. O. Stephen Grossberg, Boston University  - SUNDAY, JUNE 5. 1994, 1-5 PM
  5876. Autonomous Neurodynamics: From Perception to Action
  5877.  
  5878. P. Lee Giles, NEC Research Institute  - SATURDAY, JUNE 4. 1994, 8 AM-12 PM
  5879. Dynamically-Driven Recurrent Neural Networks: Models, Training Algorithms, and
  5880. Applications
  5881.  
  5882. Q. Alianna Maren, Accurate Automation Corporation  - SATURDAY, JUNE 4. 1994, 1-5
  5883. PM
  5884. Introduction to Neural Network Applications
  5885.  
  5886. R. David Casasent, Carnegie Mellon University  - SATURDAY, JUNE 4. 1994, 8 AM-12
  5887. PM
  5888. Pattern Recognition and Neural Networks
  5889.  
  5890. S. Per Bak, Brookhaven National Laboratory  - SATURDAY, JUNE 4. 1994, 1-5 PM
  5891. Introduction to Self-Organized Criticality
  5892.  
  5893. T. Melanie Mitchell, Sante Fe Institute  - SATURDAY, JUNE 4. 1994, 8 AM-12 PM
  5894. Genetic Algorithms, Theory and Applications
  5895.  
  5896. U. Lotfi A. Zadeh, University of California, Berkeley  - SUNDAY, JUNE 5. 1994,
  5897. 1-5 PM
  5898. Fuzzy Logic and Calculi of Fuzzy Rules and Fuzzy Graphs
  5899.  
  5900. V. Nikolay G. Rambidi, International Research Institute for Management Sciences
  5901. - - SUNDAY, JUNE 5. 1994, 6-10 PM
  5902. Image Processing and Pattern Recognition Based on Molecular Neural Networks
  5903.  
  5904. ________________________________________________________________________PLENARIE
  5905. S
  5906. :
  5907.  
  5908. 1. Tuesday, June 7, 1994, 6-7 PM
  5909. Lotfi A. Zadeh, University of California, Berkeley
  5910. "Fuzzy Logic, Neural Networks, and Soft Computing"
  5911.  
  5912. 2. Tuesday, June 7, 1994, 7-8 PM
  5913. Per Bak, Brookhaven National Laboratory
  5914. "Introduction to Self-Organized Criticality"
  5915.  
  5916. 3. Wednesday, June 8, 1994, 6-7 PM
  5917. Bernard Widrow, Stanford University
  5918. "Adaptive Inverse Control"
  5919.  
  5920. 4. Wednesday, June 8, 1994, 7-8 PM
  5921. Melanie Mitchell, Sante Fe Institute
  5922. "Genetic Algorithms: Why They Work and What They Can Do For You"
  5923.  
  5924. 5. Thursday, June 9, 1994, 6-7 PM
  5925. Paul Werbos, US National Science Foundation
  5926. "Brain-Like Intelligence in Artificial Models: How Do We Really Get There?"
  5927.  
  5928. 6. Thursday, June 9, 1994, 7-8 PM
  5929. John Taylor, King's College London
  5930. "Capturing What It Is Like to Be: Modelling the Mind with Neural Networks"
  5931.  
  5932. ________________________________________________________________________SPECIAL
  5933. SESSIONS:
  5934.  
  5935. Special Session 1:
  5936. "Biomedical Applications of Neural Networks"
  5937. Tuesday, June 7, 1994
  5938.  
  5939. Co-sponsored by the National Institute of Allergy and Infectious Diseases, U.S.
  5940. NIH; the Division of Cancer Treatment, National Cancer Institute, U.S. NIH; and
  5941. the Center for Devices and Radiological Health, U.S. Food and Drug
  5942. Administration
  5943. Chairs:
  5944. David G, Brown, PhD
  5945. Center for Devices and Radiological Health, FDA
  5946.  
  5947. John Weinstein, MD, PhD
  5948. National Cancer Institute, NIH
  5949.  
  5950. This special session will focus on recent progress in applying neural networks
  5951. to biomedical problems, both in the research laboratory and in the clinical
  5952. environment. Applications moving toward early commercial implementation will be
  5953. highlighted, and working demonstrations will be given. The track will commence
  5954. with an overview session including invited presentations by Dr. John Weinstein,
  5955. NCI, NIH on the present status of biomedical applications research and by his
  5956. co-session chair Professor Shiro Usui, Toyohasi University  on biomedical
  5957. applications in Japan. A second morning session, chaired by  Dr. Harry B. Burke,
  5958. MD, PhD, University of Nevada and by Dr. Judith Dayhoff, PhD, University of
  5959. Maryland, University of Maryland, will address neural networks for prediction
  5960. and other nonimaging applications. The afternoon session, chaired by Dr.
  5961. Maryellen L, Giger, PhD, University of Chicago, and Dr. Laurie J. Mango,
  5962. Neuromedical Systems, Inc., will cover biomedical image analysis/image
  5963. understanding applications. The final session, chaired by Dr. David G. Brown,
  5964. PhD, CDRH, FDA is an interactive panel/audience discussion of the promise and
  5965. pitfalls of neural network biomedical applications. Other prominent invited
  5966. speakers include Dr. Nozomu Hoshimiya of Tohoku University and Dr. Michael
  5967. O'Neill of the University of Maryland. Submission of oral and/or poster
  5968. presentations are welcomed to complement the invited presentations.
  5969.  
  5970. Special Session 2:
  5971. "Commercial and Industrial Applications of Neural Networks"
  5972. Tuesday, June 7, 1994
  5973. Co-sponsored by the Society for Manufacturing Engineers
  5974. Overall Chair: Bernard Widrow, Stanford University
  5975.  
  5976. This special session will be divided into four sessions of invited talks and
  5977. will place its emphasis on commercial and industrial applications working 24
  5978. hours a day and making money for their users. The sessions will be organized as
  5979. follows:
  5980. Morning Session 1
  5981. "Practical Applications of Neural Hardware"
  5982. Chair: Dan Hammerstrom, Adaptive Solutions, Portland, Oregon, USA
  5983. Morning Session 2
  5984. "Applications of Neural Networks in Pattern Recognition and Prediction"
  5985. Chair: Kenneth Marko, Ford Motor Company
  5986. Afternoon Session 1
  5987. "Applications of Neural Networks in the Financial Industry"
  5988. Chair: Ken Otwell, BehavHeuristics, College Park, Maryland, USA
  5989. Afternoon Session 2
  5990. "Applications of Neural Networks on Process Control and Manufacturing"
  5991. Chair: Tariq Samad, Honeywell
  5992.  
  5993. Special Session 3:
  5994. "Financial and Economic Applications of Neural Networks"
  5995. Wednesday, June 8, 1994
  5996. Chair: Guido J. Deboeck, World Bank
  5997.  
  5998. This special session will focus on the state-of the-art in financial and
  5999. economic applications. The track will be split into four sessions:
  6000. Morning Session 1
  6001. Overview on Major Financial Applications of Neural Networks and Related Advanced
  6002. Technologies"
  6003. Morning Session 2
  6004. Presentation of Papers: Time-Series, Forecasting, Genetic Algorithms, Fuzzy
  6005. Logic, Non-Linear Dynamics
  6006. Afternoon Session 1
  6007. Product Presentations
  6008. Afternoon Session 2
  6009. Panel discussion on "Cost and Benefits of Advanced Technologies in Finance"
  6010. Invited speakers to be announced. Papers submitted to regular sessions may
  6011. receive consideration for this special session.
  6012.  
  6013. Special Session 4:
  6014. "Neural Networks in Chemical Engineering"
  6015. Thursday, June 9, 1994
  6016. Co-sponsored by the American Institute of Chemical Engineers
  6017. Chair: Thomas McAvoy, University of Maryland
  6018.  
  6019. This special session on neural networks in the chemical process industries will
  6020. explore applications to all areas of the process industries including process
  6021. modelling, both steady state and dynamic, process control, fault detection, soft
  6022. sensing, sensor validation, and business examples. Contributions from both
  6023. industry and academia are being solicited.
  6024.  
  6025. Special Session 5:
  6026. "Mind, Brain and Consciousness"
  6027. Thursday, June 9, 1994
  6028. Session Chair:  John Taylor, King's College London
  6029. Session Co-chair: Walter Freeman, University of California, Berkeley
  6030. Session Committee:  Stephen Grossberg, Boston University and Gerhardt Roth,
  6031. Brain Research Institute
  6032. Invited Speakers include S. Grossberg, P. Werbos, G. Roth, B. Libet, J. Taylor
  6033.  
  6034. Consciousness and inner experience have suddenly emerged as the centre of
  6035. activity in psychology, philosophy, and neurobiology. Neural modelling is
  6036. preceding apace in this subject. Contributors from all areas are now coming
  6037. together to move rapidly towards a solution of what might be regarded as one of
  6038. the deepest problems of human existence. Neural models, and their constraints,
  6039. will be presented in the session, with an assessment of how far we are from
  6040. building a machine that can see the world the way we do.
  6041.  
  6042. ________________________________________________________________________SPECIAL
  6043. INTEREST GROUP (SIGINNS) SESSIONS
  6044.  
  6045. INNS Special Interest Groups have been established for interaction between
  6046. individuals with interests in various subfields of neural networks as well as
  6047. within geographic areas. Several SIGs have tentatively planned sessions for
  6048. Wednesday, June 8, 1994 from 8 - 9:30 PM:
  6049.  
  6050. Automatic Target Recognition - Brian Telfer, Chair
  6051. A U.S Civilian Neurocomputing Initiative - Andras Pellionisz, Chair
  6052. Control, Robotics, and Automation - Kaveh Ashenayi, Chair
  6053. Electronics/VLSI - Ralph Castain, Chair
  6054. Higher Level Cognitive Processes - John Barnden, Chair
  6055. Hybrid Intelligence - Larry Medsker, Chair
  6056. Mental Function and Dysfunction - Daniel Levine, Chair
  6057. Midwest US Area - Cihan Dagli, Chair
  6058. Power Engineering - Dejan Sobajic, Chair
  6059.  
  6060. ________________________________________________________________________NEW in
  6061. '94!
  6062. NEURAL NETWORK INDUSTRIAL EXPOSITION
  6063. The State-of-the-Art in Advanced Technological Applications
  6064. MONDAY JUNE 6, 1994 - 8 AM to 9 PM
  6065. SPECIAL EXPOSITION-ONLY REGISTRATION AVAILABLE: $55
  6066.  
  6067. * Dedicated to Currently Available Commercial Applications of Neural Nets &
  6068. Related Technologies
  6069. * Commercial Hardware and Software Product Demos
  6070. * Poster Presentations
  6071. * Panel Conclusions Led by Industry Experts
  6072. * Funding Panel
  6073. EXPOSITION CHAIR -- Takeshi Yamakawa, Kyushu Institute of Technology
  6074.  
  6075. CHAIRS --
  6076. Hardware:
  6077. Dan Hammerstrom, PhD, Adaptive Solutions, Inc.
  6078. Takeshi Yamakawa, Kyushu Institute of Technology
  6079. Robert Pap, Accurate Automation Corporation
  6080. Software:
  6081. Dr. Robert Hecht-Nielsen, HNC, Inc.
  6082. Casimir C. Klimasauskas, Co-founder, NeuralWare, Inc.
  6083. John Sutherland, Chairman and VP Research, AND America, Ltd.
  6084.  
  6085. Soo-Young Lee, KAIST
  6086. Asain Liaison
  6087.  
  6088. Pierre Martineau, Martineau and Associates
  6089. European Liaison
  6090.  
  6091. Plus:
  6092. NEURAL NETWORK CONTEST
  6093. with $1500 GRAND PRIZE
  6094. chaired by Bernard Widrow, Harold Szu, and Lotfi Zadeh
  6095. with a panel of distinguished judges!
  6096.  
  6097.  
  6098. EXPOSITION SCHEDULE
  6099.  
  6100. Morning Session: Hardware
  6101. 8-11 AM  Product Demonstration Area and Poster Presentations
  6102. 11 AM-12 PM  Panel Conclusion
  6103. Afternoon Session: Software
  6104. 1-4 PM  Product Demonstration Area and Poster Presentations
  6105. 4-5 PM  Panel Conclusion
  6106. Evening Session
  6107. 6-8 PM  Neural Network Contest
  6108. 8-9 PM  Funding Panel
  6109.  
  6110. HOW TO PARTICIPATE: To demonstrate your hardware or software product contact
  6111. James J. Wesolowski, 202-466-4667; (fax) 202-466-2888. For more information on
  6112. the neural network contest, indicate your interest on the registration form.
  6113. Further information and contest rules will be sent to all interested parties!
  6114. Deadline for contest registration is March 1, 1994.
  6115.  
  6116. _______________________________________________________________________
  6117. FEES at WCNN 1994
  6118.  
  6119. REGISTRATION FEE (includes all sessions, plenaries, proceedings, reception, and
  6120. Industrial Exposition. Separate registration for Short Courses.)
  6121. - - INNS Members: US$195 - US$395
  6122. - - Non Members: US$295 - US$495
  6123. - - Full Time Students: US$85 - US$135
  6124. - - Spouse/Guest: US$35 - US$55
  6125. SHORT COURSE FEE (Pay for 2 short courses, get the third FREE)
  6126. - - INNS Members: US$225 - US$275
  6127. - - Non Members: US$275 - US$325
  6128. - - Full Time Students: US$125 - US$150
  6129. Neural Network Industrial Exposition ONLY: US$55
  6130.  
  6131. CONFERENCE HOTEL: Town and Country Hotel (same site as conference)
  6132. - - Single: US$70 - US$95
  6133. - - Double: US$80 - US$105
  6134.  
  6135. TRAVEL RESERVATIONS: Executive Travel Associates (ETA) has been selected the
  6136. official travel company for the World Congress on Neural Networks. ETA offers
  6137. the lowest available fares on any airline at time of booking when you contact
  6138. them at US phone number 202-828-3501 or toll free (in the US) at 800-562-0189
  6139. and identify yourself as a participant n the Congress. Flights booked on
  6140. American Airlines, the official airline for this meeting, will result in an
  6141. additional discount. Please provide the booking agent you use with the code:
  6142. Star #S0464FS
  6143.  
  6144. ________________________________________________________________________ TO
  6145. RECEIVE CONFERENCE BROCHURES AND REGISTRATION FORMS, HOTEL ACCOMMODATION FORMS,
  6146. AND FURTHER CONGRESS INFORMATION, CONTACT THE INTERNATIONAL NEURAL NETWORK
  6147. SOCIETY AT:
  6148.  
  6149. International Neural Network Society
  6150. 1250 24th Street, NW
  6151. Suite 300
  6152. Washington, DC  20037  USA
  6153. phone: 202-466-4667
  6154. fax: 202-466-2888
  6155. e-mail: 70712.3265@compuserve.com
  6156.  
  6157. ________________________________________________________________________
  6158.  
  6159. HELP INNS SPREAD THE WORD ABOUT THE 1994 WORLD CONGRESS ON NEURAL NETWORKS.
  6160. PLEASE COPY AND POST THIS ANNOUNCEMENT ON OTHER BULLETIN BOARDS AND LISTS WHICH
  6161. HAVE AN AUDIENCE THAT YOU FEEL SHOULD KNOW ABOUT WCNN 1994! YOUR EFFORTS ARE
  6162. GREATLY APPRECIATED!
  6163.  
  6164.  
  6165.  
  6166.  
  6167.  
  6168. ------------------------------
  6169.  
  6170. End of Neuron Digest [Volume 12 Issue 19]
  6171. *****************************************
  6172.