home *** CD-ROM | disk | FTP | other *** search
/ Monster Media 1993 #2 / Image.iso / text / 9305nni.zip / 930512.ANC < prev    next >
Internet Message Format  |  1993-05-12  |  51KB

  1. From ml-connectionists-request@q.cs.cmu.edu Tue May  4 16:05:30 1993
  2. Received: by cse.uta.edu (5.57/Ultrix2.4-C)
  3.     id AA04746; Tue, 4 May 93 08:32:38 -0500
  4. Received: from Q.CS.CMU.EDU by Q.CS.CMU.EDU id aa10406; 3 May 93 23:45:06 EDT
  5. Received: from DST.BOLTZ.CS.CMU.EDU by Q.CS.CMU.EDU id aa10404;
  6.           3 May 93 23:27:53 EDT
  7. Received: from DST.BOLTZ.CS.CMU.EDU by DST.BOLTZ.CS.CMU.EDU id aa10414;
  8.           3 May 93 23:27:13 EDT
  9. Received: from CS.CMU.EDU by B.GP.CS.CMU.EDU id aa18336; 3 May 93 23:24:12 EDT
  10. Received: from crl.ucsd.edu by CS.CMU.EDU id aa19883; 3 May 93 23:23:37 EDT
  11. Received: by crl.ucsd.edu; id AA15510
  12.     sendmail 4.1/UCSD-2.1-sun
  13.     Mon, 3 May 93 20:23:25 PDT for connectionists@cs.cmu.edu
  14. Date: Mon, 3 May 93 20:23:25 PDT
  15. From: Jeff Elman <elman@crl.ucsd.edu>
  16. Message-Id: <9305040323.AA15510@crl.ucsd.edu>
  17. To: connectionists@cs.cmu.edu
  18. Subject: new books in MIT Neural Network/Connectionsm series
  19. Status: RO
  20.  
  21.  
  22. The following books have now appeared as part of the Neural Network
  23. Modeling and Connection Series, and may be of interest to readers of
  24. the connectionists mailing group.  Detailed descriptions of each book,
  25. along with table of contents, follow.
  26.  
  27. Jeff Elman
  28. ============================================================
  29.  
  30. Neural Network Modeling and Connectionism Series
  31.   Jeffrey Elman, editor.  MIT Press/Bradford Books.
  32.  
  33. * Miikkulainen, R. "Subsymbolic Natural Language Processing
  34.     An Integrated Model of Scripts, Lexicon, and Memory"
  35. * Mitchell, M.  "Analogy-Making as Perception A Computer Model"
  36. * Cleeremans, A.  "Mechanisms of Implicit Learning Connectionist Models
  37.     of Sequence Processing"
  38. * Sereno, M.E. "Neural Computation of Pattern Motion Modeling Stages of
  39.     Motion Analysis in the Primate Visual Cortex"
  40. * Miller, W.T., Sutton, R.S., & Werbos, P.J. (Eds.), "Neural Networks for
  41.     Control"
  42. * Hanson, S.J., & Olson, C.R. (Eds.) "Connectionist Modeling and Brain
  43.     Function The Developing Interface"
  44. * Judd, S.J. "Neural Network Design and the Complexity of Learning"
  45. * Mozer, M.C. "The Perception of Multiple Objects A Connectionist
  46.     Approach"
  47.  
  48. ------------------------------------------------------------
  49. New
  50. Subsymbolic Natural Language Processing
  51. An Integrated Model of Scripts, Lexicon, and Memory
  52. Risto Miikkulainen
  53.  
  54. Aiming to bridge the gap between low-level connectionist models and 
  55. high-level symbolic artificial intelligence, Miikkulainen describes 
  56. DISCERN, a complete natural language processing system implemented 
  57. entirely at the subsymbolic level. In DISCERN, distributed neural 
  58. network models of parsing, generating, reasoning, lexical processing, 
  59. and episodic memory are integrated into a single system that learns to 
  60. read, paraphrase, and answer questions about stereotypical narratives. 
  61.  
  62. Using the DISCERN system as an example, Miikkulainen introduces a 
  63. general approach to building high-level cognitive models from 
  64. distributed neural networks, and shows how the special properties of 
  65. such networks are useful in modeling human performance. In this approach 
  66. connectionist networks are not only plausible models of isolated 
  67. cognitive phenomena, but also sufficient constituents for complete 
  68. artificial intelligence systems.
  69.  
  70. Risto Miikkulainen is an Assistant Professor in the Department of 
  71. Computer Sciences at the University of Texas,  Austin.
  72.  
  73. Contents: I.Overview. Introduction. Background. Overview of DISCERN. II. 
  74. Processing Mechanisms. Backpropagation Networks. Developing 
  75. Representations in FGREP Modules Building from FGREP Modules. III. 
  76. Memory Mechanisms. Self-Organizing Feature Maps. Episodic Memory 
  77. Organization: Hierarchical Feature Maps. Episodic Memory Storage and 
  78. Retrieval: Trace Feature Maps. Lexicon. IV. Evaluation. Behavior of the 
  79. Complete Model. Discussion. Comparison to Related Work. Extensions and 
  80. Future Work. Conclusions. Appendixes: A Story Data. Implementation 
  81. Details. Instructions for Obtaining the DISCERN Software.
  82.  
  83. A Bradford Book
  84. May 1993 - 408 pp. - 129 illus. - $45.00
  85. 0-262-13290-7     MIISH
  86.  
  87. ------------------------------------------------------------
  88. New
  89. Analogy-Making as Perception
  90. A Computer Model
  91. Melanie Mitchell
  92.  
  93. Analogy-Making as Perception is based on the premise that analogy-making 
  94. is fundamentally a high-level perceptual process in which the 
  95. interaction of perception and concepts gives rise to "conceptual 
  96. slippages" which allow analogies to be made. It describes Copycat, 
  97. developed by the author with Douglas Hofstadter, that models the 
  98. complex, subconscious interaction between perception and concepts that 
  99. underlies the creation of analogies. 
  100.   
  101. In Copycat, both concepts and high-level perception are emergent 
  102. phenomena, arising from large numbers of low-level, parallel, 
  103. non-deterministic activities. In the spectrum of cognitive modeling 
  104. approaches, Copycat occupies a unique intermediate position between 
  105. symbolic systems and connectionist systems - a position that is at 
  106. present the most useful one for understanding the fluidity of concepts 
  107. and high-level perception.
  108.   
  109. On one level the work described here is about analogy-making, but on 
  110. another level it is about cognition in general. It explores such issues 
  111. as the nature of concepts and perception and the emergence of highly 
  112. flexible concepts from a lower-level "subcognitive" substrate.
  113.   
  114. Melanie Mitchell, Assistant Professor in the Department of Electrical 
  115. Engineering and Computer Science at the University of Michigan, is a 
  116. Fellow of the Michigan Society of Fellows. She is also Director of the 
  117. Adaptive Computation Program at the Santa Fe Institute.
  118.  
  119. Contents: Introduction. High-Level Perception, Conceptual Slippage, and 
  120. Analogy-Making in a Microworld. The Architecture of Copycat. Copycat's 
  121. Performance on the Five Target Problems. Copycat's Performance on 
  122. Variants of the Five Target Problems. Summary of the Comparisons between 
  123. Copycat and Human Subjects. Some Shortcomings of the Model. Results of 
  124. Selected "Lesions" of Copycat. Comparisons with Related Work. 
  125. Contributions of This Research. Afterword by Douglas R. Hofstadter. 
  126. Appendixes. A Sampler of Letter-String Analogy Problems Beyond Copycat's 
  127. Current Capabilities. Parameters and Formulas. More Detailed 
  128. Descriptions of Codelet Types.
  129.  
  130. A Bradford Book
  131. May 1993 - 382 pp. - 168 illus. - $45.00
  132. 0-262-13289-3     MITAH
  133.  
  134. ------------------------------------------------------------
  135. New
  136. Mechanisms of Implicit Learning
  137. Connectionist Models of Sequence Processing
  138. Axel Cleeremans
  139.  
  140. What do people learn when they do not know that they are learning? Until 
  141. recently all of the work in the area of implicit learning focused on 
  142. empirical questions and methods. In this book, Axel Cleeremans explores 
  143. unintentional learning from an information-processing perspective. He 
  144. introduces a theoretical framework that unifies existing data and models 
  145. on implicit learning, along with a detailed computational model of human 
  146. performance in sequence-learning situations.
  147.   
  148. The model, based on a simple recurrent network (SRN), is able to predict 
  149. the successive elements of sequences generated from finite-state 
  150. grammars. Human subjects are shown to exhibit a similar sensitivity to 
  151. the temporal structure in a series of choice reaction time experiments 
  152. of increasing complexity; yet their explicit knowledge of the sequence 
  153. remains limited. Simulation experiments indicate that the SRN model is 
  154. able to account for these data in great detail.  Other architectures 
  155. that process sequential material are considered. These are contrasted 
  156. with the SRN model, which they sometimes outperform. Considered 
  157. together, the models show how complex knowledge may emerge through the 
  158. operation of elementary mechanisms - a key aspect of implicit learning 
  159. performance.
  160.   
  161. Axel Cleeremans is a Senior Research Assistant at the  National Fund for 
  162. Scientific Research, Belgium.
  163.  
  164. Contents: Implicit Learning: Explorations in Basic Cognition. The SRN 
  165. Model: Computational Aspects of Sequence Processing. Sequence Learning 
  166. as a Paradigm for Studying Implicit Learning. Sequence Learning: Further 
  167. Explorations. Encoding Remote Control. Explicit Sequence Learning. 
  168. General Discussion.
  169.  
  170. A Bradford Book
  171. April 1993 - 227 pp. - 60 illus. - $30.00
  172. 0-262-03205-8     CLEMH  
  173.  
  174. ------------------------------------------------------------
  175. New
  176. Neural Computation of Pattern Motion
  177. Modeling Stages of Motion Analysis in the Primate Visual Cortex
  178. Margaret Euphrasia Sereno
  179.  
  180. How does the visual system compute the global motion of an object from 
  181. local views of its contours?  Although this important problem in 
  182. computational vision (also called the aperture problem) is key to 
  183. understanding how biological systems work, there has been surprisingly 
  184. little neurobiologically plausible work done on it. This book describes 
  185. a neurally based model, implemented as a connectionist network, of how 
  186. the aperture problem is solved. It provides a structural account of the 
  187. model's performance on a number of tasks and demonstrates that the 
  188. details of implementation influence the nature of the computation as 
  189. well as predict perceptual effects that are unique to the model. The 
  190. basic approach described can be extended to a number of different 
  191. sensory computations.
  192.  
  193. "This is an important book, discussing a significant and very general 
  194. problem in sensory processing.  The model presented is simple, and it is 
  195. elegant in that we can see, intuitively, exactly why and how it works.  
  196. Simplicity, clarity and elegance are virtues in any field, but not often 
  197. found in work in neural networks and sensory processing.  The model 
  198. described in Sereno's book is an exception.  This book will have a 
  199. sizeable impact on the field." - James Anderson, Professor, Department 
  200. of Cognitive and Linguistic Sciences, Brown University
  201.  
  202. Contents: Introduction. Computational, Psychophysical, and 
  203. Neurobiological Approaches to Motion Measurement. The Model. Simulation 
  204. Results. Psychophysical Demonstrations. Summary and Conclusions. 
  205. Appendix: Aperture Problem Linearity.
  206.   
  207. A Bradford Book
  208. March 1993 - 181 pp.- 41 illus. - $24.95
  209. 0-262-19329-9     SERNH 
  210.  
  211. ------------------------------------------------------------
  212. Neural Networks for Control
  213. edited by W. Thomas Miller, III, Richard S. Sutton,
  214. and Paul J. Werbos
  215.  
  216. This book brings together examples of all of the most important 
  217. paradigms in artificial neural networks (ANNs) for control, including 
  218. evaluations of possible applications. An appendix provides complete 
  219. descriptions of seven benchmark control problems for those who wish to 
  220. explore new ideas for building automatic controllers.
  221.   
  222. Contents: I.General Principles. Connectionist Learning for Control: An 
  223. Overview, Andrew G. Barto. Overview of Designs and Capabilities, Paul J. 
  224. Werbos. A Menu of Designs for Reinforcement Learning Over Time, Paul J. 
  225. Werbos. Adaptive State Representation and Estimation Using Recurrent 
  226. Connectionist Networks, Ronald J. Williams. Adaptive Control using 
  227. Neural Networks, Kumpati S. Narendra. A Summary Comparison of CMAC 
  228. Neural Network and Traditional Adaptive Control Systems, L. Gordon 
  229. Kraft, III, and David P. Campagna. Recent Advances in Numerical 
  230. Techniques for Large Scale Optimization, David F. Shanno. First Results 
  231. with Dyna, An Integrated Architecture for Learning, Planning and 
  232. Reacting, Richard S. Sutton.
  233.  
  234. II. Motion Control. Computational Schemes and Neural Network Models for 
  235. Formation and Control of Multijoint Arm Trajectory, Mitsuo Kawato. 
  236. Vision-Based Robot Motion Planning, Bartlett W. Mel. Using Associative 
  237. Content-Addressable Memories to Control Robots, Christopher G. Atkeson 
  238. and David J. Reinkensmeyer. The Truck Backer-Upper: An Example of 
  239. Self-Learning in Neural Networks, Derrick Nguyen and Bernard Widrow. An 
  240. Adaptive Sensorimotor Network Inspired by the Anatomy and Physiology of 
  241. the Cerebellum, James C. Houk, Satinder P. Singh, Charles Fisher, and 
  242. Andrew G. Barto. Some New Directions for Adaptive Control Theory in 
  243. Robotics, Judy A. Franklin and Oliver G. Selfridge.
  244.  
  245. III. Application Domains. Applications of Neural Networks in Robotics 
  246. and Automation for Manufacturing, Arthur C. Sanderson. A Bioreactor 
  247. Benchmark for Adapive Network-based Process Control, Lyle H. Ungar. A 
  248. Neural Network Baseline Problem for Control of Aircraft Flare and 
  249. Touchdown, Charles C. Jorgensen and C. Schley. Intelligent Conrol for 
  250. Multiple Autonomous Undersea Vehicles, Martin Herman, James S. Albus, 
  251. and Tsai-Hong Hong. A Challenging Set of Control Problems, Charles W. 
  252. Anderson and W. Thomas Miller.
  253.  
  254. A Bradford Book
  255. 1990 - 524 pp. - $52.50
  256. 0-262-13261-3  MILNH
  257.  
  258. ------------------------------------------------------------
  259. Connectionist Modeling and Brain Function
  260. The Developing Interface
  261. edited by Stephen Jose Hanson and Carl R. Olson
  262.  
  263. This tutorial on current research activity in connectionist-inspired 
  264. biology-based modeling describes specific experimental approaches and 
  265. also confronts general issues related to learning, associative memory, 
  266. and sensorimotor development. 
  267.  
  268. "This volume makes a convincing case that data-rich brain scientists and 
  269. model-rich cognitive psychologists can and should talk to one another. 
  270. The topics they discuss together here - memory and perception - are of 
  271. vital interest to both, and their collaboration promises continued 
  272. excitement along this new scientific frontier." - George Miller, 
  273. Princeton University
  274.  
  275. Contents: Part I: Overview. Introduction: Connectionism and 
  276. Neuroscience, S. J. Hanson and C. R. Olson. Computational Neuroscience, 
  277. T. J. Sejnowski, C. Koch, and P. S. Churchland. Part II: Associative 
  278. Memory and Conditioning. The Behavioral Analysis of Associative Learning 
  279. in the Terrestrial Mollusc Limax Maximus: The Importance of Inter-event 
  280. Relationships, C. L. Sahley. Neural Models of Classical Conditioning: A 
  281. Theoretical Viewpoint, G. Tesauro. Unsupervised Perceptual Learning: A 
  282. Paleocortical Model, R. Granger, J. Ambros-Ingerson, P. Anton, and G. 
  283. Lynch. Part III. The Somatosensory System. Biological Constraints on a 
  284. Dynamic Network: The Somatosensory Nervous System, T. Allard. A Model of 
  285. Receptive Field Plasticity and Topographic Reorganization in the 
  286. Somatosensory Cortex, L. H. Finkel. Spatial Representation of the Body, 
  287. C. R. Olson and S. J. Hanson. Part IV: The Visual System. The 
  288. Development of Ocular Dominance Columns: Mechanisms and Models. K. D. 
  289. Miller and M. P. Stryker. Self- Organization in a Perceptual System: How 
  290. Network Models and Information Theory May Shed Light on Neural 
  291. Organization, R. Linsker. Solving the Brightness-From-Luminance Problem: 
  292. A Neural Architecture for Invariant Brightness Perception, S. Grossberg 
  293. and D. Todorovic.
  294.  
  295. A Bradford Book
  296. 1990 - 423 pp. - $44.00
  297. 0-262-08193-8  HANCH
  298.  
  299. ------------------------------------------------------------
  300. Neural Network Design and the Complexity of Learning
  301. J. Stephen Judd
  302.  
  303. Using the tools of complexity theory, Stephen Judd develops a formal 
  304. description of associative learning in connectionist networks. He 
  305. rigorously exposes the computational difficulties in training neural 
  306. networks and explores how certain design principles will or will not 
  307. make the problems easier. 
  308.  
  309. "Judd . . . formalized the loading problem and proved it to be 
  310. NP-complete. This formal work is clearly explained in his book in such a 
  311. way that it will be accessible both to the expert and nonexpert." - Eric 
  312. B. Baum, IEEE Transactions on Neural Networks
  313.  
  314. "Although this book is the true successor to Minsky and Papert's 
  315. maligned masterpiece of 1969 (Perceptrons), Judd is not trying to 
  316. demolish the field of neurocomputing. His purpose is to clarify the 
  317. limitations of a wide class of network models and thereby suggest 
  318. guidelines for practical applications." - Richard Forsyth, Artificial 
  319. Intelligence & Behavioral Simulation
  320.  
  321. Contents: Neural Netowrks: Hopes, Problems, and Goals. The  Loading 
  322. Problem. Other Studies of Learning. The Intractability of Loading. 
  323. Subcases. Shallow Architectures. Memorization and Generalization. 
  324. Conclusions. Appendices
  325.  
  326. A Bradford Book
  327. 1990 - 150 pp. - $27.50
  328. 0-262-10045-2  JUDNH
  329.  
  330. ------------------------------------------------------------
  331. The Perception of Multiple Objects  
  332. A Connectionist Approach
  333. Michael C. Mozer
  334.  
  335. Building on the vision studies of David Marr and the connectionist 
  336. modeling of the PDP group it describes a neurally inspired computational 
  337. model of two-dimensional object recognition and spatial attention that 
  338. can explain many characteristics of human visual perception. The model, 
  339. called MORSEL, can actually recognize several two-dimensional objects at 
  340. once (previous models have tended to blur multiple objects into one or 
  341. to overload). Mozer's is a fully mechanistic account, not just a 
  342. functional-level theory.   
  343.  
  344. "Mozer's work makes a major contribution to the study of visual 
  345. information processing. He has developed a very creative and 
  346. sophisticated new approach to the problem of visual object recognition. 
  347. The combination of computational rigor with thorough and knowledgeable 
  348. examination of psychological results is impressive and unique." - Harold 
  349. Pashler, University of California at San Diego
  350.  
  351. Contents: Introduction. Multiple Word Recognition. The Pull-Out Network. 
  352. The Attentional Mechanism. The Visual Short-Term Memory. Psychological 
  353. Phenomena Explained by MORSEL. Evaluation of MORSEL. Appendixes: A 
  354. Comparison of Hardware Requirements. Letter Cluster Frequency and 
  355. Discriminability Within BLIRNET's Training Set.
  356.  
  357. A Bradford Book
  358. 1991 - 217 pp - $27.50
  359. 0-262-13270-2  MOZPH
  360.  
  361. -------------------------------------------------------------
  362. ORDER FORM
  363.  
  364. Please send me the following book(s):
  365.  
  366. Qty    Author      Bookcode  Price
  367.  
  368. ___    Cleeremans  CLEMH     30.00
  369. ___    Hanson      HANCH     44.00
  370. ___    Judd        JUDNH     27.50
  371. ___    Mikkulainen MIISH     45.00
  372. ___    Miller      MILNH     52.50
  373. ___    Mitchell    MITAH     45.00 
  374. ___    Mozer       MOZPH     27.50
  375. ___    Sereno      SERNH     24.95
  376.  
  377.  
  378. ___ Payment Enclosed  ___  Purchase Order Attached
  379.  
  380. Charge to my  ___  Master Card   ___  Visa
  381.  
  382. Card# _______________________________
  383.  
  384. Exp.Date _______________
  385.  
  386. Signature _________________________________________________ 
  387.  
  388. _____ Total for book
  389. $2.75 Postage 
  390. _____ Please add 50c postage for each additional book
  391. _____ Canadian customers Add 7% GST
  392. _____ TOTAL due MIT Press
  393.  
  394. Send To:
  395.  
  396. Name ______________________________________________________
  397.  
  398. Address ___________________________________________________
  399.  
  400. City ________________________ State ________ Zip __________
  401.  
  402. Daytime Phone ________________ Fax ________________________
  403.  
  404. Make checks payable and send order to:
  405. The MIT Press  *  55 Hayward Street *  Cambridge, MA 02142  
  406.  
  407. For fastest service call (617) 625-8569 
  408. or toll-free 1-800-356-0343 
  409.         
  410.  
  411. The MIT Guarantee: If for any reason you are not completely satisfied, 
  412. return your book(s) within ten days of receipt for a full refund or 
  413. credit.
  414.  
  415. 3ENET
  416.  
  417.  
  418. From ml-connectionists-request@q.cs.cmu.edu Tue May  4 16:05:39 1993
  419. Received: by cse.uta.edu (5.57/Ultrix2.4-C)
  420.     id AA00804; Tue, 4 May 93 03:33:45 -0500
  421. Received: from Q.CS.CMU.EDU by Q.CS.CMU.EDU id aa09739; 3 May 93 18:17:04 EDT
  422. Received: from DST.BOLTZ.CS.CMU.EDU by Q.CS.CMU.EDU id aa09677;
  423.           3 May 93 17:32:49 EDT
  424. Received: from DST.BOLTZ.CS.CMU.EDU by DST.BOLTZ.CS.CMU.EDU id aa10120;
  425.           3 May 93 17:31:15 EDT
  426. Received: from CS.CMU.EDU by B.GP.CS.CMU.EDU id aa13168; 3 May 93 15:26:40 EDT
  427. Received: from acquine.cns.caltech.edu by CS.CMU.EDU id aa16873;
  428.           3 May 93 15:25:26 EDT
  429. Received: from plato.cns.caltech.edu by cns.caltech.edu (4.1/1.34)
  430.     id AA16477; Mon, 3 May 93 12:15:00 PDT
  431. Received: by plato.cns.caltech.edu id <AA20897@plato.cns.caltech.edu>; Mon, 3 May 93 12:30:55 PDT
  432. Date: Mon, 3 May 93 12:30:55 PDT
  433. From: Bartlett Mel <mel@cns.caltech.edu>
  434. Message-Id: <9305031930.AA20897@plato.cns.caltech.edu>
  435. To: connectionists@cs.cmu.edu
  436. Subject: NIPS*93: Deadline May 22
  437. Status: RO
  438.  
  439.  
  440.  
  441. ******************** FINAL REMINDER, NOTE DEADLINE OF MAY 22 *****************
  442.  
  443.  
  444.                                    CALL FOR PAPERS
  445.                         Neural Information Processing Systems
  446.                                -Natural and Synthetic-
  447.                   Monday, November 29 - Thursday, December 2, 1993
  448.                                   Denver, Colorado
  449.  
  450.           This is the seventh meeting of an  inter-disciplinary  conference
  451.           which brings together neuroscientists, engineers, computer scien-
  452.           tists, cognitive scientists, physicists, and  mathematicians  in-
  453.           terested  in  all  aspects  of neural processing and computation.
  454.           There will be an afternoon of  tutorial  presentations  (Nov  29)
  455.           preceding  the  regular session and two days of focused workshops
  456.           will follow at a nearby ski area (Dec 3-4).
  457.  
  458.           Major categories and examples of subcategories for paper  submis-
  459.           sions are the following:
  460.  
  461.           Neuroscience: Studies and Analyses of Neurobiological Systems,
  462.           Inhibition  in  cortical circuits, Signals and noise in neural
  463.           computation, Computational and Theoretical Neurobiology,  Neu-
  464.           rophysics.
  465.  
  466.           Theory:  Computational  Learning  Theory,  Complexity  Theory,
  467.           Dynamical  Systems,  Statistical  Mechanics,  Probability  and
  468.           Statistics, Approximation Theory.
  469.  
  470.           Implementation and Simulation: VLSI, Optical, Software Simula-
  471.           tors,  Implementation Languages, Parallel Processor Design and
  472.           Benchmarks.
  473.  
  474.           Algorithms and Architectures: Learning  Algorithms,  Construc-
  475.           tive  and  Pruning Algorithms, Localized Basis Functions, Tree
  476.           Structured Networks, Performance Comparisons,  Recurrent  Net-
  477.           works, Combinatorial Optimization, Genetic Algorithms.
  478.  
  479.           Cognitive Science & AI: Natural Language, Human  Learning  and
  480.           Memory, Perception and Psychophysics, Symbolic Reasoning.
  481.  
  482.           Visual Processing: Stereopsis, Visual Motion, Recognition, Im-
  483.           age Coding and Classification.
  484.  
  485.           Speech and Signal Processing: Speech Recognition, Coding,  and
  486.           Synthesis,  Text-to-Speech,  Adaptive  Equalization, Nonlinear
  487.           Noise Removal.
  488.  
  489.           Control, Navigation, and Planning:  Navigation  and  Planning,
  490.           Learning  Internal  Models  of the World, Trajectory Planning,
  491.           Robotic Motor Control, Process Control.
  492.  
  493.           Applications: Medical Diagnosis or  Data  Analysis,  Financial
  494.           and  Economic  Analysis, Timeseries Prediction, Protein Struc-
  495.           ture Prediction, Music Processing, Expert Systems.
  496.  
  497.           Technical Program: Plenary, contributed and poster sessions  will
  498.           be  held.   There will be no parallel sessions.  The full text of
  499.           presented papers will be published.
  500.  
  501.           Submission Procedures:  Original research contributions are soli-
  502.           cited,  and  will be carefully refereed.  Authors must submit six
  503.           copies of both a 1000-word (or less) summary and six copies of  a
  504.           separate  single-page  50-100 word abstract clearly stating their
  505.           results postmarked by May 22, 1993 (express mail  is  not  neces-
  506.           sary).  Accepted  abstracts  will  be published in the conference
  507.           program.  Summaries are for program committee use only.   At  the
  508.           bottom  of each abstract page and on the first summary page indi-
  509.           cate preference for oral or poster presentation and  specify  one
  510.           of  the  above  nine  broad  categories and, if appropriate, sub-
  511.           categories (For  example:  Poster,  Applications-Expert  Systems;
  512.           Oral,  Implementation-Analog  VLSI). Include addresses of all au-
  513.           thors at the front of the summary and the abstract  and  indicate
  514.           to  which  author correspondence should be addressed. Submissions
  515.           will not be considered that lack category  information,  separate
  516.           abstract  sheets,  the  required six copies, author addresses, or
  517.           are late.
  518.  
  519.           Mail Submissions To:
  520.  
  521.           Gerry Tesauro
  522.           NIPS*93 Program Chair
  523.           The Salk Institute, CNL
  524.           10010 North Torrey Pines Rd.
  525.           La Jolla, CA 92037
  526.  
  527.           Mail For Registration Material To:
  528.  
  529.           NIPS*93 Registration
  530.           NIPS Foundation
  531.           PO Box 60035
  532.           Pasadena, CA 91116-6035
  533.  
  534.           All submitting authors will be  sent  registration  material  au-
  535.           tomatically.   Program  committee  decisions  will be sent to the
  536.           correspondence author only.
  537.  
  538.           NIPS*93 Organizing Committee: General Chair, Jack Cowan,  Univer-
  539.           sity  of Chicago; Publications Chair, Joshua Alspector, Bellcore;
  540.           Publicity  Chair,  Bartlett Mel, CalTech;  Program  Chair,  Gerry
  541.           Tesauro,  IBM/Salk Institute; Treasurer, Rodney Goodman, CalTech;
  542.           Local  Arrangements,  Chuck  Anderson,  Colorado State  Universi-
  543.           ty;  Tutorials  Chair,  Dave Touretzky, Carnegie-Mellon, Workshop
  544.           Chair, Mike Mozer, University  of  Colorado;  Program  Co-Chairs:
  545.           Larry  Abbott,  Brandeis  Univ,  Chris Atkeson, MIT; A. B. Bonds,
  546.           Vanderbilt Univ; Gary Cottrell, UCSD;  Scott  Fahlman,  CMU;  Rod
  547.           Goodman,  Caltech;  John  Hertz,  NORDITA/NIH;  John  Lazzaro, UC
  548.           Berkeley;  Todd  Leen,   OGI;   Jay   McClelland,   CMU;   Nelson
  549.           Morgan,ICSI;  Steve  Nowlan,  Salk  Inst./Synaptics; Misha Pavel,
  550.           NASA/OGI; Sandy Pentland, MIT;  Tom  Petsche,  Siemens.  Domestic
  551.           Liasons:  IEEE Liaison, Terrence Fine, Cornell; Government & Cor-
  552.           porate Liaison, Lee Giles, NEC Research Institute Inc.;  Overseas
  553.           Liasons: Mitsuo Kawato, ATR;  Marwan Jabri, University of Sydney; 
  554.       Gerard Dreyfus, Ecole Superieure, Paris;  Alan Murray, University 
  555.       of Edinburgh;  Andreas Meier, Simon Bolivar U.
  556.  
  557.           DEADLINE FOR SUMMARIES & ABSTRACTS IS MAY 22, 1993 (POSTMARKED)
  558.  
  559.                                      please post
  560.  
  561.  
  562.  
  563.  
  564.  
  565.  
  566.  
  567.  
  568.  
  569.  
  570.  
  571.  
  572.  
  573.  
  574.  
  575.  
  576.  
  577.  
  578.  
  579.  
  580.  
  581.  
  582.  
  583.  
  584.  
  585.  
  586.  
  587.  
  588.  
  589.  
  590.  
  591.  
  592.  
  593. From ml-connectionists-request@q.cs.cmu.edu Wed May  5 01:10:11 1993
  594. Received: by cse.uta.edu (5.57/Ultrix2.4-C)
  595.     id AA16822; Wed, 5 May 93 03:10:03 -0500
  596. Received: from Q.CS.CMU.EDU by Q.CS.CMU.EDU id aa14694; 5 May 93 0:45:34 EDT
  597. Received: from DST.BOLTZ.CS.CMU.EDU by Q.CS.CMU.EDU id aa14630;
  598.           5 May 93 0:13:07 EDT
  599. Received: from DST.BOLTZ.CS.CMU.EDU by DST.BOLTZ.CS.CMU.EDU id aa11320;
  600.           5 May 93 0:12:12 EDT
  601. Received: from CS.CMU.EDU by B.GP.CS.CMU.EDU id aa27382; 4 May 93 15:31:41 EDT
  602. Received: from hermes.chpc.utexas.edu by CS.CMU.EDU id aa24896;
  603.           4 May 93 15:30:42 EDT
  604. Received: from morpheus.chpc.utexas.edu by hermes.chpc.utexas.edu (5.64/SMI-3.2)
  605.     id AA29456; Tue, 4 May 93 14:30:34 -0500
  606. Received: by morpheus.chpc.utexas.edu (4.1/SMI-4.1)
  607.     id AA01085; Tue, 4 May 93 14:30:33 CDT
  608. From: mwitten@hermes.chpc.utexas.edu
  609. Message-Id: <9305041930.AA01085@morpheus.chpc.utexas.edu>
  610. Subject: WORLD CONGRESS ON COMPUTATIONAL MEDICINE<-CFPP
  611. To: connectionists@cs.cmu.edu
  612. Date: Tue, 4 May 93 14:30:32 CDT
  613. X-Mailer: ELM [version 2.3 PL11]
  614. Status: R
  615.  
  616.  
  617.       [] ***** CALL FOR PAPERS AND PARTICIPATION ***** []
  618.  
  619. FIRST WORLD CONGRESS ON COMPUTATIONAL MEDICINE AND PUBLIC HEALTH
  620.  
  621.                  24-28 April 1994
  622.                Hyatt Regency Hotel
  623.                    Austin, Texas
  624.  
  625.                 compmed94@chpc.utexas.edu
  626.       (this notice may be reposted/cross posted/circulated)
  627. ------------------------------------------------------------------------
  628.  
  629. *Conference Chair: Matthew Witten, UT System Center For High Performance
  630.             Computing, Austin, Texas - m.witten@chpc.utexas.edu
  631.  
  632. *Conference Directorate: Regina Monaco, Mt. Sinai Medical Center * Dan 
  633.         Davison, University of Houston * Chris Johnson, University of
  634.         Utah * Lisa Fauci, Tulane University * Daniel Zelterman, 
  635.         University of Minnesota Minneapolis * James Hyman, Los Alamos
  636.         National Laboratory * Richard Hart, Tulane University * Dennis
  637.         Duke, SCRI-Florida State University * Sharon Meintz, 
  638.             University of Nevada Los Vegas * Dean Sittig, Vanderbilt
  639.         University * Dick Tsur, World Bank and UT System CHPC *
  640.         Dan Deerfield, Pittsburgh Supercomputing Center * Istvan
  641.         Gyori, Szeged University School of Medicine Computing Center
  642.  
  643.  
  644. *Conference Theme: The appearance of high-performance computing environments 
  645. has greatly enhanced the capabilities of the biomedical modeler. With 
  646. increasing frequency, computational sciences are being exploited as a means 
  647. with which to investigate biomedical processes at all levels of complexity, 
  648. from molecular to systemic to demographic. The emergence of an increasing 
  649. number of players in this field has lead to the subsequent emergence of a 
  650. new transdisciplinary field which we call Computational Medicine and Public 
  651. Health. The purpose of this congress is to bring together a transdisciplinary
  652. group of researchers in medicine, public health, computer science, mathematics,
  653. nursing, veterinary medicine, ecology, allied health, as well as numerous
  654. other disciplines, for the purposes of examining the grand challenge problems
  655. of the next decades. 
  656.  
  657. Young scientists are encouraged to attend and to present their work in this 
  658. increasingly interesting discipline. Funding is being solicited from NSF, 
  659. NIH, DOE, Darpa, EPA, and private foundations, as well as
  660. other sources to assist in travel support and in the offsetting of expenses
  661. for those unable to attend otherwise. Papers, poster presentations, tutorials,
  662. focussed topic workshops,  birds of a feather groups, demonstrations, and other
  663. suggestions are solicited in, but are not limited to the following areas:
  664.  
  665. *Visualization/Sonification
  666. --- medical imaging
  667. --- molecular visualization as a clinical research tool
  668. --- simulation visualization
  669. --- microscopy
  670. --- visualization as applied to problems arising in computational
  671.     molecular biology and genetics or other non-traditional disciplines
  672.  
  673. *Computational Molecular Biology and Genetics
  674. --- computational ramifications of clinical needs in the Human Genome,
  675.     Plant Genome, and Animal Genome Projects
  676. --- computational and grand challenge problems in
  677.     molecular biology and genetics
  678. --- algorithms and methodologies
  679. --- issues of multiple datatype databases
  680.  
  681. *Computational Pharmacology, Pharmacodynamics, Drug Design
  682.  
  683. *Computational Chemistry as Applied to Clinical Issues
  684.  
  685. *Computational Cell Biology, Physiology, and Metabolism
  686. --- Single cell metabolic models (red blood cell)
  687. --- Cancer models
  688. --- Transport models
  689. --- Single cell interaction with external factors models (laser,
  690.     ultrasound, electrical stimulus)
  691.  
  692. *Computational Physiology and Metabolism
  693. --- Renal System
  694. --- Cardiovascular dynamics
  695. --- Liver function
  696. --- Pulmonary dynamics
  697. --- Auditory function, coclear dynamics, hearing
  698. --- Reproductive modeling: ovarian dynamics, reproductive
  699.     ecotoxicology, modeling the hormonal cycle 
  700. --- Metabolic Databases and metabolic models
  701.  
  702. *Computational Demography, Epidemiology, and Statistics/Biostatistics
  703. --- Classical demographic, epidemiologic, and biostatistical modeling
  704. --- Modeling of the role of culture, poverty, and other
  705.     sociological issues as they impact healthcare
  706.  
  707. *Computational Disease Modeling
  708. --- AIDS
  709. --- TB
  710. --- Influenza
  711. --- Other
  712.  
  713. *Computational Biofluids
  714. --- Blood flow
  715. --- Sperm dynamics
  716. --- Modeling of arteriosclerosis
  717.  
  718. *Computational Dentistry, Orthodontics, and Prosthetics
  719.  
  720. *Computational Veterinary Medicine 
  721. --- Computational issues in modeling non-human dynamics such
  722.     as equine, feline, canine dynamics (physiological/biomechanical)
  723.  
  724. *Computational Allied Health Sciences
  725. --- Physical Therapy
  726. --- Neuromusic Therapy
  727. --- Resiratory Therapy
  728.  
  729. *Computational Radiology
  730. --- Dose modeling
  731. --- Treatment planning
  732.  
  733. *Computational Surgery
  734. --- Simulation of surgical procedures in VR worlds
  735. --- Surgical simulation as a precursor to surgical intervention
  736.  
  737. *Computational Cardiology
  738.  
  739. *Computational Neurobiology and Neurophysiology 
  740. --- Brain modeling
  741. --- Single neuron models
  742. --- Neural nets and clinical applications
  743. --- Neurophysiological dynamics 
  744. --- Neurotransmitter modeling
  745. --- Neurological disorder modeling (Alzheimers Disease, for example)
  746.  
  747. *Computational Biomechanics
  748. --- Bone Modeling
  749. --- Joint Modeling
  750.  
  751. *The role of alternate reality methodologies
  752.  and high performance environments in the medical and
  753.  public health disciplines
  754.  
  755. *Issues in the use of high performance computing 
  756.  environments in the teaching of health science 
  757.  curricula
  758.  
  759. *The role of high performance environments
  760.  for the handling of large medical datasets (high
  761.  performance storage environments, high performance
  762.  networking, high performance medical records 
  763.  manipulation and management, metadata structures
  764.  and definitions)
  765.  
  766. *Federal and private support for transdisciplinary research
  767.  in computational medicine and public health
  768.  
  769.  
  770. *Contact: To contact the congress organizers for any reason
  771.             use any of the following
  772.  
  773.             Electronic Mail - compmed94@chpc.utexas.edu
  774.             Fax (USA)       - (512) 471-2445
  775.         Phone (USA)     - (512) 471-2472
  776.                        
  777.             Compmed 1994
  778.             University of Texas System CHPC
  779.         Balcones Research Center, 1.154CMS
  780.         10100 Burnet Road 
  781.         Austin, Texas 78758-4497 
  782.     
  783.  
  784. *Submission Procedures: Authors must submit 5 copies
  785.       of a single-page 50-100 word abstract clearly discussing the 
  786.       topic of their presentation. In addition, authors must clearly 
  787.       state their choice of poster, contributed paper, tutorial, exhibit,
  788.       focussed workshop or birds of a feather group along with a
  789.       discussion of their presentation. Abstracts will be published 
  790.       as part of the preliminary conference material.
  791.       To notify the congress organizing committee that you would like to
  792.       participate and to be put on the congress mailing list, 
  793.       please fill out and return the form that follows this announcement.             You may use any of the contact methods above.
  794.  
  795. *Conference Deadlines: The following deadlines should be noted:
  796.      1 October   1993 - Notification of interest in participation 
  797.      1 November  1993 - Abstracts for talks/posters/workshops/birds of a 
  798.                         feather sessions/demonstrations
  799.      15 January  1994 - Notification of acceptance of abstract
  800.      15 February 1994 - Application for financial aid
  801.              
  802. ============================= INTENT TO PARTICIPATE ==========================
  803.  
  804.  
  805.  
  806.  
  807. First Name:
  808.  
  809. Middle Initial (if available):
  810.  
  811. Family Name:
  812.  
  813. Your Professional Title:
  814.  
  815.        [ ]Dr.
  816.        [ ]Professor
  817.        [ ]Mr.
  818.        [ ]Mrs.
  819.        [ ]Ms.
  820.        [ ]Other:__________________
  821.  
  822. Office Phone (desk):
  823.  
  824. Office Phone (message):
  825.  
  826. Home/Evening Phone (for emergency contact):
  827.  
  828. Fax:
  829.  
  830. Electronic Mail (Bitnet):
  831.  
  832. Electronic Mail (Internet):
  833.  
  834. Postal Address:
  835.        Institution or Center:
  836.        Building Code:
  837.        Mail Stop:
  838.        Street Address1:
  839.        Street Address2:
  840.        City:
  841.        State:
  842.        Country:
  843.        Zip or Country Code:
  844.  
  845. Please list your three major interest areas:
  846.  
  847.        Interest1:
  848.        Interest2:
  849.        Interest3:
  850. ===================================================================
  851.  
  852.  
  853. From ml-connectionists-request@q.cs.cmu.edu Wed May  5 17:08:32 1993
  854. Received: by cse.uta.edu (5.57/Ultrix2.4-C)
  855.     id AA12017; Wed, 5 May 93 19:08:22 -0500
  856. Received: from Q.CS.CMU.EDU by Q.CS.CMU.EDU id aa17419; 5 May 93 15:52:56 EDT
  857. Received: from DST.BOLTZ.CS.CMU.EDU by Q.CS.CMU.EDU id aa17417;
  858.           5 May 93 15:30:36 EDT
  859. Received: from DST.BOLTZ.CS.CMU.EDU by DST.BOLTZ.CS.CMU.EDU id aa11798;
  860.           5 May 93 15:29:45 EDT
  861. Received: from EDRC.CMU.EDU by B.GP.CS.CMU.EDU id ab06996; 5 May 93 12:01:03 EDT
  862. Received: from udsab.dia.unisa.it by EDRC.CMU.EDU id aa17512;
  863.           5 May 93 11:59:49 EDT
  864. Received: by udsab.dia.unisa.it id AA21642
  865.   (5.65c+/IDA-1.4.4 for Connectionists@cs.cmu.edu); Wed, 5 May 1993 18:01:02 +0200
  866. Date: Wed, 5 May 1993 18:01:02 +0200
  867. From: Tagliaferri Roberto <robtag@udsab.dia.unisa.it>
  868. Message-Id: <199305051601.AA21642@udsab.dia.unisa.it>
  869. To: Connectionists@cs.cmu.edu
  870. Subject: WIRN 93 Programme
  871. Status: RO
  872.  
  873.  
  874. Istituto Internazionale Alti Studi Scientifici (IIASS)
  875. Dipartimento di Fisica Teorica, Universita` di Salerno
  876. Dipartimento di Informatica ed Applicazioni, Universita` di Salerno
  877. Dipartimento di Scienze dell'Informazione, Universita` di Milano
  878. Istituto per la Ricerca dei Sistemi Informatici Paralleli, C.N.R., Napoli
  879. Societa` Italiana Reti Neuroniche (SIREN)
  880.  
  881. 6th ITALIAN WORKSHOP ON
  882. NEURAL NETWORKS
  883.  
  884. WIRN VIETRI-93
  885.  
  886. IIASS Research Center
  887. Ph: +39 89 761167
  888. FAX:+39 89 761189
  889.  
  890. Vietri Sul Mare, Salerno, May 12-14, 1993
  891.  
  892. PRELIMINARY PROGRAM
  893.  
  894.         Wednesday 12
  895.  
  896. 9:00  Opening of the Workshop
  897.  
  898. 9:30  S. Gielen (Invited Lecture)
  899.  
  900. 11:00 Coffee break
  901.  
  902. 11:30 Formal Models and Pattern Recognition 
  903. G. Basti, V. Bidoli et al. "Particle recognition on experimental data in a silicon calorimeter by back propagation with stochastic pre-processing" 
  904. A. Borghese "Learning optimal control using neural networks" 
  905. S. Brofferio, V. Rampa "A supervised-ART neural network for pattern recognition" 
  906. P. Pedrazzi  "On self-organizing neural character recognizers"
  907. V. Sanguineti, P. Morasso "Models of cortical maps"
  908. L. Stringa "Experiments in memory-based learning"
  909.  
  910. 13:00 Lunch break
  911.  
  912. 15:00 Prof. Tredici (Review Lecture on Progresses in Neuroanatomy)
  913.  
  914. 16:00 Applications (1st part)
  915. E. Coccorese, R. Martone, C. Morabito "Classification of plasma equilibria in a tokamak using a three-level propagation network"
  916. E.D. Di Claudio, G. Trivelloni, G. Orlandi "Model identification of non linear dynamical systems by recurrent neural networks"
  917. P. Morasso, A. Pareto, S. Pagliano, V. Sanguineti "A self-organizing approach for diagnostic problems"
  918.  
  919. 17:00 Coffee Break
  920.  
  921. 17:30 Hybrid and Robotic Systems
  922. A. Chella, U. Maniscalco, R. Pirrone, F. Sorbello, P. Storniolo "A shape from shading hybrid approach to estimate superquadric parameters"
  923. Z.M. Kovacs-V., R. Guerrieri, G. Baccarini "A hybrid system for handprinted character recognition" 
  924. A. Sperduti, A. Starita "Modular neural codes implementing neural trees"
  925.  
  926.  
  927.         Thursday 13
  928.  
  929. 9:00 L. Zadeh (Invited Lecture)
  930.  
  931. 11:00 Coffee Break
  932.  
  933. 11:30 Fuzzy neural systems
  934. E. Binaghi, A. Mazzetti, R. Orlando, A. Rampini "Integration of fuzzy reasoning techniques in the error back propagation learning algorithm" 
  935. M. Costa, E. Pasero "FNC: a fuzzy neural classifier with bayesian engine"
  936. Zhiling Wiang, G. Sylos Labini "A self-organizing network of alterable competitive layer for pattern cluster"
  937.  
  938. 13:00 Lunch Break
  939.  
  940. 15:00 V. Cimagalli (Review Lecture on Cellular Networks)
  941.  
  942. 16:00 - 17:30 Poster and Industrial Sessions
  943.  
  944. 17:30 SIREN Annual Meeting
  945.  
  946.         Friday 14
  947.  
  948. 9:00 Y. Bengio, P. Frasconi and M. Gori (Review Lecture on Recurrent Networks for Adaptive Temporal Reasoning)
  949.  
  950. 10:00 Applications (2nd part)
  951. S. Cavalieri, A. Fichera "Exploiting neural network features to model and analyze noise pollution"  
  952. A.M. Colla, N. Longo, G. Morgavi, S. Ridella "SBP: A hybrid neural model for pattern recognition" 
  953. F. Piglione, G. Cirrincione "Neural-net based load-flow models for electric power systems" 
  954.  
  955. 11:00 Coffee Break
  956.  
  957. 11:30 Hardware and Software Design
  958. A. d'Acierno, R. Vaccaro "The back-propagation learning algorithm on parallel computers: a mapping scheme" 
  959. M. Gioiello, G. Vassallo, F. Sorbello "A new fully digital feed-forward network for hand-written digits recognition" 
  960. F. Lauria, M. Sette "CONNET: a neural network configuration language" 
  961. P. Wilke "Simulation of neural networks in a distributed computing environment using Neuro Graph" 
  962.  
  963. 13:00 Lunch Break
  964.  
  965. 15:00  Architectures and Algorithms
  966. M. Alberti, P. Marelli, R. Posenato " A neural algorithm for the maximum satisfiability  problem" 
  967. E. Alpaydin "Multiple networks for function learning" 
  968. D. Micci Barreca, G.C. Buttazzo "A neural architecture for failure-based learning" 
  969. M. Schmitt "On the size of weights for McCulloch-Pitts neurons" 
  970.  
  971.  
  972. Registration fee 275.000 Italian Liras (including proceedings and 
  973. social dinner).
  974. No fees to be payed for students.
  975.  
  976.  
  977.  
  978.  
  979. From ml-connectionists-request@q.cs.cmu.edu Tue May 11 20:00:42 1993
  980. Received: by cse.uta.edu (5.57/Ultrix2.4-C)
  981.     id AA04075; Tue, 11 May 93 22:00:30 -0500
  982. Received: from Q.CS.CMU.EDU by Q.CS.CMU.EDU id aa20586; 11 May 93 19:08:47 EDT
  983. Received: from DST.BOLTZ.CS.CMU.EDU by Q.CS.CMU.EDU id aa20410;
  984.           11 May 93 18:19:00 EDT
  985. Received: from DST.BOLTZ.CS.CMU.EDU by DST.BOLTZ.CS.CMU.EDU id aa15954;
  986.           11 May 93 18:18:02 EDT
  987. Received: from EDRC.CMU.EDU by B.GP.CS.CMU.EDU id aa07333;
  988.           11 May 93 12:58:03 EDT
  989. Received: from ucsd.edu by EDRC.CMU.EDU id aa02990; 11 May 93 12:57:29 EDT
  990. Received: from sunshine.ucsd.edu by ucsd.edu; id AA12763
  991.     sendmail 5.67/UCSD-2.2-sun via SMTP
  992.     Tue, 11 May 93 09:57:25 -0700 for connectionists@cs.cmu.edu
  993. Received: by sunshine.ucsd.edu (4.1/UCSDPSEUDO.4)
  994.     id AA29071 for connectionists@cs.cmu.edu; Tue, 11 May 93 09:57:21 PDT
  995. Date: Tue, 11 May 93 09:57:21 PDT
  996. From: Fogel <fogel@ece.ucsd.edu>
  997. Message-Id: <9305111657.AA29071@sunshine.ucsd.edu>
  998. To: connectionists@cs.cmu.edu
  999. Subject: Email Digest for Evolutionary Programming
  1000. Status: RO
  1001.  
  1002.  
  1003.                                  ANNOUNCING
  1004.  
  1005.                    EVOLUTIONARY PROGRAMMING EMAIL DIGEST
  1006.  
  1007. We are pleased to announce that as of May 10, 1993, an email digest
  1008. covering transactions on evolutionary programming will be available.  The
  1009. digest is intended to promote discussions on a wide range of technical
  1010. issues in evolutionary optimization, as well as provide information on
  1011. upcoming conferences, events, journals, special issues, and other items of
  1012. interest to the EP community.  Discussions on all areas of evolutionary
  1013. computation are welcomed, including artificial life, evolution strategies,
  1014. and genetic algorithms.  The digest is meant to encourage interdisciplinary
  1015. communications.  Your suggestions and comments regarding the digest are
  1016. always welcome.
  1017.  
  1018. To subscribe to the digest, send mail to ep-list-request@magenta.me.fau.edu
  1019. and include the line "subscribe ep-list" in the body of the text.  Further
  1020. instructions will follow your subscription.
  1021.  
  1022. The digest will be moderated by N. Saravanan of Florida Atlantic University.
  1023.  
  1024. Sincerely,
  1025.  
  1026. David Fogel
  1027. fogel@sunshine.ucsd.edu
  1028.  
  1029. N. Saravanan
  1030. saravan@amber.me.fau.edu
  1031.  
  1032. From ml-connectionists-request@q.cs.cmu.edu Fri May  7 21:18:32 1993
  1033. Received: by cse.uta.edu (5.57/Ultrix2.4-C)
  1034.     id AA02125; Fri, 7 May 93 23:18:15 -0500
  1035. Received: from Q.CS.CMU.EDU by Q.CS.CMU.EDU id aa26005; 7 May 93 18:50:48 EDT
  1036. Received: from DST.BOLTZ.CS.CMU.EDU by Q.CS.CMU.EDU id aa25953;
  1037.           7 May 93 18:08:06 EDT
  1038. Received: from DST.BOLTZ.CS.CMU.EDU by DST.BOLTZ.CS.CMU.EDU id aa13360;
  1039.           7 May 93 18:07:15 EDT
  1040. Received: from EDRC.CMU.EDU by B.GP.CS.CMU.EDU id aa29738; 7 May 93 11:37:35 EDT
  1041. Received: from dendrite.cis.ohio-state.edu by EDRC.CMU.EDU id aa25466;
  1042.           7 May 93 11:37:03 EDT
  1043. Received: by dendrite.cis.ohio-state.edu (5.61-kk/5.911008)
  1044.     id AA07540; Fri, 7 May 93 11:44:36 -0400
  1045. Date: Fri, 7 May 93 11:44:36 -0400
  1046. From: Jordan B Pollack <pollack@cis.ohio-state.edu>
  1047. Message-Id: <9305071544.AA07540@dendrite.cis.ohio-state.edu>
  1048. To: connectionists@CS.CMU.EDU
  1049. Subject: Tweaking NEUROPROSE 
  1050. Reply-To: pollack@cis.ohio-state.edu
  1051. Ftp-Host: archive.cis.ohio-state.edu
  1052. Ftp-File: pub/neuroprose/README
  1053. Status: RO
  1054.  
  1055. *****do not forward to other groups*****
  1056.  
  1057. Good People,
  1058.  
  1059. There are problems of scale with NEUROPROSE, and no resources to fix
  1060. them properly. Therefore, after great thought about the laws of
  1061. unintended consequences, and with no insult intended to recent 
  1062. articles, I am hereby tweaking the practices of NEUROPROSE, and I
  1063. trust you will all go along with me eventually:
  1064.  
  1065. 1. No more multiple daily submissions, NEUROPROSE is supposed to be
  1066. for relevant preprints, not a vanity press or a medium for the
  1067. distribution of life works or annual reports.
  1068.  
  1069. 2. Make sure your paper is single-spaced, even as a draft,
  1070. so as to save paper.
  1071.  
  1072. 3. Please announce the NUMBER OF PAGES with with the announcement, so
  1073. people are not surprised by empty laser printer trays. In your request
  1074. to me, it would help to have a formatted INDEX entry with the page
  1075. count as well (see appendix).
  1076.  
  1077. 4. Before announcing, have a friend at another institution retrieve
  1078. and print the file, so as to avoid easily found local postscript 
  1079. library errors. Lots of resource are wasted when the files
  1080. do not print. 
  1081.  
  1082. 5. Add the following two lines to your mail header, or the top of your
  1083. message, so as to facilitate the development of mailer scripts and
  1084. macros which can automatically retrieve files from both NEUROPROSE and
  1085. other lab-specific repositories (Thanks to Dave Plaut's sense of humor):
  1086.  
  1087.           FTP-host: archive.cis.ohio-state.edu
  1088.           FTP-filename: /pub/neuroprose/filename.ps.Z
  1089.  
  1090. 6. Finally, unless you are posting a file with non-standard ftp arrangements,
  1091. like a tar.Z file, leave the instructions off, as everyone knows at
  1092. this point how to get and uncompress and print a postscript file! 
  1093.  
  1094. I have amended the README file to this effect. Please send comments to 
  1095. me for discussion, rather than the whole mailing list.
  1096.  
  1097. Thanks.
  1098.  
  1099. Jordan Pollack                            Assistant Professor
  1100. CIS Dept/OSU                              Laboratory for AI Research
  1101. 2036 Neil Ave                             Email: pollack@cis.ohio-state.edu
  1102. Columbus, OH 43210                        Phone: (614)292-4890 (then * to fax)
  1103.  
  1104.  
  1105. From ml-connectionists-request@q.cs.cmu.edu Tue May 11 16:26:04 1993
  1106. Received: by cse.uta.edu (5.57/Ultrix2.4-C)
  1107.     id AA01094; Tue, 11 May 93 18:25:56 -0500
  1108. Received: from Q.CS.CMU.EDU by Q.CS.CMU.EDU id aa20403; 11 May 93 18:40:43 EDT
  1109. Received: from DST.BOLTZ.CS.CMU.EDU by Q.CS.CMU.EDU id aa20398;
  1110.           11 May 93 18:15:51 EDT
  1111. Received: from DST.BOLTZ.CS.CMU.EDU by DST.BOLTZ.CS.CMU.EDU id aa15945;
  1112.           11 May 93 18:15:06 EDT
  1113. Received: from EDRC.CMU.EDU by B.GP.CS.CMU.EDU id aa03752; 11 May 93 7:00:36 EDT
  1114. Received: from signal.dra.hmg.gb by EDRC.CMU.EDU id aa01941;
  1115.           11 May 93 6:59:59 EDT
  1116. Received: from liszt.dra.hmg.gb by signal.dra.hmg.gb (5.65b/)
  1117.     id AA14693; Tue, 11 May 93 11:59:51 +0100
  1118. Received: from milne by liszt.dra.hmg.gb (5.65b+/)
  1119.     id AA13508; Tue, 11 May 93 12:00:55 +0100
  1120. From: Mike Wynne-Jones <mikewj@signal.dra.hmg.gb>
  1121. Date: Tue, 11 May 93 12:00:55 +0100
  1122. Received: by milne.dra.hmg.gb (5.65b+/)
  1123.     id AA08130; Tue, 11 May 93 12:00:55 +0100
  1124. Message-Id: AA08130@milne.dra.hmg.gb
  1125. To: connectionists@cs.cmu.edu
  1126. Subject: Neural nets applications meeting in UK
  1127. Status: RO
  1128.  
  1129.  
  1130.  
  1131.         ***********************************
  1132.     NEURAL COMPUTING APPLICATIONS FORUM
  1133.     ***********************************
  1134.  
  1135.         23 - 24 June 1993
  1136.  
  1137.    Fitzwilliam College, Cambridge University, UK
  1138.  
  1139.  
  1140.      *****************************************
  1141.      PRACTICAL APPLICATIONS OF NEURAL NETWORKS
  1142.      *****************************************
  1143.  
  1144.  
  1145. Neural Computing Applications Forum is the primary meeting place for
  1146. people developing Neural Network applications in industry and
  1147. academia.  It has 150 members from the UK and Europe, from
  1148. universities, small companies and big ones, and holds four main
  1149. meeting each year.  It has been running for 3 years, and is cheap to
  1150. join.
  1151.  
  1152. This meeting spans two days with informal workshops on 23 June and the
  1153. main meeting comprising talks about neural network techniques and
  1154. applications on 24 June.  
  1155.  
  1156. *********
  1157. WORKSHOPS - these talks are planned; additional short talks are sought.
  1158. *********
  1159.  
  1160. **********************************************************
  1161. Constructing structured networks of Radial Basis Functions 
  1162.  
  1163.              23 June, 13.00 to 15.00
  1164. **********************************************************
  1165.  
  1166. Including :
  1167.  
  1168. Robert Debenham (Logica Cambridge): 
  1169. "Online construction of RBFs during training"
  1170.  
  1171. Richard Bostock (Aston University):
  1172. "Bump-tree construction by genetic algorithms"
  1173.  
  1174. *********************************************************
  1175.              Self Organising Networks
  1176.  
  1177.               23 June, 15.30 to 17.30
  1178. *********************************************************
  1179.  
  1180. Including:
  1181.  
  1182. Nigel Allinson (York University): 
  1183. "Self Organising Networks: fast training, case studies and digital
  1184. implementations"
  1185.  
  1186.  
  1187. ************************************************************
  1188. Evening: Punting on the Cam followed by liquid refreshments!
  1189. ************************************************************
  1190.  
  1191.  
  1192.  
  1193. *****************************
  1194. MAIN MEETING  -  24 June 1993
  1195. *****************************
  1196.  
  1197.  
  1198. 8.30 Registration
  1199.  
  1200. 9.05 Welcome
  1201.  
  1202. 9.15 Douglas Kell (university of Wales):
  1203.        "Detection of impurities in olive oil"
  1204.  
  1205. 9.55 Mahesan Niranjan (University of Cambridge):
  1206.     "On-line learning algorithms for prediction and 
  1207.         control applications"
  1208.  
  1209. 10.30 Coffee
  1210.  
  1211. 11.00 Tony Robinson (University of Cambridge):
  1212.     "Application of recurrent nets to phone probability 
  1213.         estimation in speech recognition"
  1214.  
  1215. 11.40 Prof. Cabrol-Bass (LARTIC, France):
  1216.     "Indices for the Evaluation of Neural Network Performance 
  1217.     as classifiers: Application to Structural Elucidation 
  1218.     in Infra Red Spectroscopy"
  1219.  
  1220. 12.15 Lunch
  1221.  
  1222. 2.00 Stephen Roberts (Oxford University):
  1223.     "Probabilistic Growth of RBFs for detection of novelty"
  1224.  
  1225. 2.40 Dave Cressy (Logica Cambridge Research):
  1226.     "Neural Control of an Experimental Batch Distillation Column"
  1227.  
  1228. 3.15 Tea
  1229.  
  1230. 3.40 Tom Harris (Brunel University):
  1231.     "Kohonen nets in machine health monitoring"
  1232.  
  1233. 4.10 Discussions
  1234.  
  1235. 4.30 Close
  1236.  
  1237. ACCOMODATION is available in Fitzwilliam college at 30 pounds (single)
  1238. and 47 pounds (twin), and **MUST** be booked and paid for in advance.
  1239. There are also lots of hotels in Cambridge.
  1240.  
  1241.  
  1242. *****************
  1243.    Application 
  1244. *****************
  1245.  
  1246. Members of NCAF get free entry to all meetings for a year. (This is
  1247. very good value - main meetings, tutorials, special interest
  1248. meetings).  It also includes subscription to Springer Verlag's
  1249. new(ish) journal "Neural Computing and Applications".
  1250.  
  1251. Full membership: 250 pounds. 
  1252.     - anybody in your cmall company / research group in big company.
  1253.  
  1254. Individual membership: 140 pounds
  1255.     - named individual only.
  1256.  
  1257. Student membership (with journal): 55 pounds
  1258.     - copy of student ID required.
  1259.  
  1260. Student membership (no journal, very cheap!): 25 pounds
  1261.     - copy of student ID required.
  1262.  
  1263. Entry to this meeting without membership costs 35 pounds for the
  1264. workshops, and 80 pounds for the main day.
  1265.  
  1266. Payment in advance if possible; 5 pounds charge for issue of invoice if credit is required; need an official order number.
  1267.  
  1268.  
  1269. Email enquiries to Mike Wynne-Jones, mikewj@signal.dra.hmg.gb.
  1270.  
  1271. Postal to Mike Wynne-Jones, NCAF, PO Box 62, Malvern, WR14 4NU, UK.
  1272.  
  1273. Fax to Mike Wynne-Jones, (+44/0) 684 894384
  1274.  
  1275.