home *** CD-ROM | disk | FTP | other *** search
/ Hacker Chronicles 2 / HACKER2.BIN / 1014.NEURON < prev    next >
Text File  |  1993-09-25  |  336KB  |  8,403 lines

  1. Received: from BUACCA by BUACCA.BU.EDU (Mailer R2.08 PTF009) with BSMTP id
  2.  1641; Fri, 02 Jul 93 14:02:05 EDT
  3. Received: from noc4.dccs.upenn.edu by BUACCA.BU.EDU (IBM VM SMTP R1.2.1) with
  4.  TCP; Fri, 02 Jul 93 14:01:57 EDT
  5. Received: from CATTELL.PSYCH.UPENN.EDU by noc4.dccs.upenn.edu
  6.     id AA26249; Fri, 2 Jul 93 13:59:46 -0400
  7. Return-Path: <marvit@cattell.psych.upenn.edu>
  8. Received: from LOCALHOST by cattell.psych.upenn.edu
  9.     id AA20377; Fri, 2 Jul 93 12:13:02 EDT
  10. Posted-Date: Fri, 02 Jul 93 12:12:22 -0400
  11. From: "Neuron-Digest Moderator" <neuron-request@cattell.psych.upenn.edu>
  12. To: Neuron-Distribution:;
  13. Subject: Neuron Digest V11 #42 (conferences & CFP)
  14. Reply-To: "Neuron-Request" <neuron-request@cattell.psych.upenn.edu>
  15. X-Errors-To: "Neuron-Request" <neuron-request@cattell.psych.upenn.edu>
  16. Organization: University of Pennsylvania
  17. Date: Fri, 02 Jul 93 12:12:22 -0400
  18. Message-Id: <20346.741629542@cattell.psych.upenn.edu>
  19. Sender: marvit@cattell.psych.upenn.edu
  20.  
  21. Neuron Digest   Friday,  2 Jul 1993
  22.                 Volume 11 : Issue 42
  23.  
  24. Today's Topics:
  25.                         Travel grants for CNS*93
  26.                        CLNL'93 - Revised deadline
  27.                         call for papers: SAC '94
  28.                                  PASE'93
  29.  
  30.  
  31. Send submissions, questions, address maintenance, and requests for old
  32. issues to "neuron-request@cattell.psych.upenn.edu". The ftp archives are
  33. available from cattell.psych.upenn.edu (130.91.68.31). Back issues
  34. requested by mail will eventually be sent, but may take a while.
  35.  
  36. ----------------------------------------------------------------------
  37.  
  38. Subject: Travel grants for CNS*93
  39. From:    Jim Bower <jbower@smaug.cns.caltech.edu>
  40. Date:    Tue, 29 Jun 93 15:30:08 -0800
  41.  
  42.  
  43.  
  44.             The Second Annual
  45.     Computation and Neural Systems Meeting
  46.                 CNS*93
  47.  
  48.       July 31  through August 7,1993
  49.               Washington DC
  50.  
  51.         Travel grant announcement
  52.  
  53.         With support from the National Science Foundation, the CNS*93
  54. organizing committee is pleased to announce the availability of travel
  55. grants for the upcoming meeting.  Funds will be provided based on the
  56. distance traveled to the meeting.  Grants are expected to range from $200
  57. to $500.
  58.  
  59.         General meeting information:
  60.  
  61.         The Computation and Neural Systems meeting (CNS*93) is the second
  62. in a series of annual inter- disciplinary conferences intended to address
  63. the broad range of research approaches and issues involved in the general
  64. field of computational neuroscience.  The meeting will bring together
  65. experimental and theoretical neurobiologists along with engineers,
  66. computer scientists, cognitive scientists, physicists, and mathematicians
  67. interested in understanding how biological neural systems compute.  The
  68. meeting will equally emphasize experimental, model-based, and more
  69. abstract theoretical approaches to understanding neurobiological
  70. computation.
  71.  
  72.         The meeting will be composed of three parts: a day of tutorials,
  73. three and a half days of research presentations, and two and a half days
  74. of follow up workshops.  The agenda for the main meeting is based on 85
  75. peer reviewed papers presented in both oral and poster format.  The
  76. tutorial day and the main meeting itself will be held at the Hyatt
  77. Regency, Bethesda Maryland. The postmeeting workshops will be held at the
  78. Coolfont resort which is set within 1350 mountainous acres in the Eastern
  79. Panhandle of West Virginia.
  80.  
  81.  
  82.           Further information:
  83.  
  84.         Additional information about the meeting is available
  85. via FTP over the internet (address: 131.215.137.69 ).  To
  86. obtain information about the agenda, currently registered
  87. attendees, or paper abstracts, the initial sequence is the
  88. same (Things you type are in ""):
  89.  
  90. >       yourhost% "ftp 131.215.137.69"
  91. >       220 mordor FTP server (SunOS 4.1) ready.
  92.         Name (131.215.137.69:<yourname>): "ftp"
  93. >       331 Guest login OK, send ident as password.
  94.         Password:  "yourname@yourhost.yourside.yourdomain"
  95. >       230 Guest login OK, access restrictions apply.
  96.         ftp> "cd cns93"
  97. >       250 CWD command successful.
  98.         ftp>
  99.  
  100. At this point you can do one of several things:
  101.  
  102. 1)      To examine what is available type:  "ls"
  103.         Directory as of 6/1/93:
  104.                 abstracts (a directory)
  105.                 agenda
  106.                 attendees
  107.                 general_information
  108.                 registration
  109.                 rooms_to_share
  110.                 travel_arrangements
  111.                 travel_grants
  112.                 tutorials
  113.                 workshops
  114. 2)      To download specific files type:  "get  <filename>"
  115.         for example:  "get agenda" or "get attendees"
  116.  
  117. 3)      To download meeting abstracts first type: "cd
  118. cns93/abstracts"
  119.                 a) to view the list of abstracts type:  "ls"
  120.                 b) to download specific abstracts type: "get
  121. <abstract name>"
  122.                 c) to download all abstracts type:  "mget *"
  123.  
  124. Once you have obtained the information you want type:
  125. "quit"
  126.  
  127.  
  128.                   Registration:
  129.  
  130.         We would recommend registering for the meeting as
  131. soon as possible as space for some meeting events is
  132. limited.   Participants can register for the meeting in
  133. several different ways.  1) electronically, 2) via email,
  134. 3) via regular surface mail.  Each different method is
  135. described below.  Please only register using one method.
  136.  
  137. 1) Interactive electronic registration:
  138.         For those of you with internet connectivity who would
  139. like to register electronically for CNS*93 we have
  140. provided an internet account through which you may submit
  141. your registration information.   To use this service you
  142. need only "telnet" to "mordor.cns.caltech.edu" and login as
  143. "cns93".   No password is required.     For example (You
  144. type what appears in ""):
  145.  
  146.         yourhost% "telnet mordor.cns.caltech.edu"
  147.         Trying 131.215.137.69 ...
  148.         Connected to mordor.cns.caltech.edu.
  149.         Escape character is '^]'.
  150.         SunOS UNIX (mordor)
  151.         login:  "cns93"
  152.         Now answer all questions
  153.  
  154. 2) For those with easy access to electronic mail, simply
  155. fill in the attached registration form and email it to:
  156. cp@smaug.cns.caltech.edu
  157.  
  158. 3) Finally, for those who elect neither of the above
  159. options, please print out the attached registration form
  160. and send with payment via surface mail to the address
  161. indicated.
  162.  
  163.              CNS*93 Registrations
  164.              Division of Biology  216-76
  165.              Caltech
  166.              Pasadena,  CA 91125
  167.  
  168. This address should also be used to send check or money
  169. orders following electronic registration.
  170.  
  171. *******************************************
  172. REGISTRATION FORM
  173. CNS*93
  174. WASHINGTON D.C.  July 31 - August 7  1993
  175. *****************************************
  176. Name  :
  177. Title :
  178. Organization :
  179. Address :
  180. City :                 State :         Zip :                Country
  181. :
  182. Telephone :                                    email address :
  183.  
  184. Registration Fees :
  185.  
  186. _____  $  25    Tutorial     (July 31)      (includes lunch)
  187.  
  188. Technical Program     (August 1 - 4)
  189. _____  $ 300  Regular
  190. _____  $ 125  Full-time Student   (Include verification of
  191. status)
  192. _____  $   50  Banquet  (for each additional banquet
  193. ticket)
  194.            (main registration includes one banquet ticket
  195. and book of abstracts)
  196.  
  197. Post-meeting Workshop   (August 4 - 7)
  198. _____ $ 325   (includes round-trip transportation,  meals
  199. and lodging)
  200.  
  201. $ ______    Total Payment
  202.  
  203. Please indicate method of payment :
  204.  ____  Check or Money Order (Payable in US. dollars
  205.                              to CNS*93 - Caltech)
  206.         will be sent to CNS*93 Registrations
  207.                         Division of Biology  216-76
  208.                         Caltech
  209.                         Pasadena,  CA 91125
  210.   ___ Visa   ___ Mastercard   ___ American Express
  211.  Charge my card number
  212. ________________________________________
  213.  Expiration date ____________     Name of cardholder
  214. ___________________
  215. Signature as appears on card :
  216. _________________________ Date ____________
  217.  
  218. Please make sure to indicate CNS*93 and YOUR name
  219. on all money transfers
  220.  
  221. Did you submit an abstract & summary ?  (  ) yes    (  ) no
  222.   title :
  223.  
  224.  
  225. Do you have special dietary preferences or restrictions
  226. (e.g., diabetic, low
  227. sodium, kosher, vegetarian)?  If so, please note:
  228.  
  229.  
  230. Some grants to cover partial travel expenses may become
  231. available.  Do you wish to apply for a grant ?     (  ) yes
  232. (  ) no
  233.  
  234.  
  235. ------------------------------
  236.  
  237. Subject: CLNL'93 - Revised deadline
  238. From:    Russell Greiner <greiner@learning.siemens.com>
  239. Date:    Tue, 29 Jun 93 23:25:52 -0500
  240.  
  241.   re: deadlines for Computational Learning and Natural Learning (CLNL'93)
  242.  
  243. Due to popular requests, we have decided to extend the deadline for CLNL'93
  244. submission by one week, until 7/July/93.  Below is the revised call for
  245. papers, with updated "Important Dates" and "Programme Committee" entries,
  246. as well as general registration information.
  247.  
  248. We look forward to receiving your papers, and also hope that you
  249. will attend the workshop this September!
  250.  
  251. Russ Greiner
  252. (Chair, CLNL'93)
  253.  
  254.  
  255.                 CLNL'93 -- Call for Submissions
  256.  
  257.         Computational Learning and Natural Learning
  258.         Provincetown, Massachusetts
  259.         10-12 September 1993
  260.  
  261. CLNL'93 is the fourth of an ongoing series of workshops designed to bring
  262. together researchers from a diverse set of disciplines --- including
  263.   computational learning theory, AI/machine learning,
  264.   connectionist learning, statistics, and control theory ---
  265. to explore issues at the intersection of theoretical learning research
  266. and natural learning systems.
  267.  
  268. Theme:
  269.   To be useful, the learning methods used by our fields must be able
  270.   to handle the complications inherent in real-world tasks. We therefore
  271.   encourage researchers to submit papers that discuss extensions to
  272.   learning systems that let them address issues such as:
  273.     *  handling many irrelevant features
  274.     *  dealing with large amounts of noise
  275.     *  inducing very complex concepts
  276.     *  mining enormous sets of data
  277.     *  learning over extended periods of time
  278.     *  exploiting large amounts of background knowledge
  279.   We welcome theoretical analyses, comparative studies of existing algorithms,
  280.   psychological models of learning in complex domains, and reports on relevant
  281.   new techniques.
  282.  
  283. Submissions:
  284.   Authors should submit three copies of an abstract (100 words or less) and a
  285.   summary (2000 words or less) of original research to:
  286.          CLNL'93 Workshop
  287.          Learning Systems Department
  288.          Siemens Corporate Research
  289.          755 College Road East
  290.          Princeton, NJ 08540-6632
  291.  
  292.   by 30 June 1993.  We will also accept plain-text, stand-alone LaTeX
  293.   or Postscript submissions sent by electronic mail to
  294.         clnl93@learning.scr.siemens.com
  295.  
  296.   Each submission will be refereed by the workshop organizers and evaluated
  297.   based on its relevance to the theme, originality, clarity, and significance.
  298.   Copies of accepted abstracts will be distributed at the workshop, and
  299.   MIT Press has agreed to publish an edited volume that incorporates papers
  300.   from the meeting, subject to revisions and additional reviewing.
  301.  
  302. Invited Talks:
  303.         Tom Dietterich   Oregon State University
  304.         Ron Rivest       Massachusetts Institute of Technology
  305.         Leo Breiman      University of California, Berkeley
  306.         Yann le Cun      Bell Laboratories
  307.  
  308. Important Dates:
  309.         Deadline for submissions:           7 July 1993
  310.         Notification of acceptance:        27 July 1993
  311.         CLNL'93 Workshop:                  10-12 September 1993
  312.  
  313. Programme Committee:
  314.   Andrew Barron, Russell Greiner, Steve Hanson, Robert Holte,
  315.   Michael Jordan, Stephen Judd, Pat Langley, Thomas Petsche,
  316.   Tomaso Poggio, Ron Rivest, Eduardo Sontag, Steve Whitehead
  317.  
  318. Workshop Sponsors:
  319.   Siemens Corporate Research    and     MIT Laboratory of Computer Science
  320.  
  321.  
  322.                         CLNL'93
  323.                   General Information
  324.  
  325. Dates:
  326.   The workshop officially begins at 9am Friday 10/Sept, and concludes by 3pm
  327.   Sunday 12/Sept, in time to catch the 3:30pm Provincetown-Boston ferry.
  328.  
  329. Location:
  330.   All sessions will take place in the Provincetown Inn (800 942-5388).   We
  331.   encourage registrants to stay there; please sign up in the enclosed
  332.   registration form.  Notice the $74/night does correspond to $37/person per
  333.   night double-occupancy, if two people share one room.
  334.  
  335. Cost:
  336.   The cost to attend this workshop is $50/person in general; $25/student.
  337.   This includes
  338.     * attendance at all presentation and poster sessions, including the four
  339.         invited talks;
  340.     * the banquet dinner on Saturday night; and
  341.     * a copy of the accepted abstracts.
  342.  
  343. Transportation:
  344.   Provincetown is located at the very tip of Cape Cod, jutting into the
  345.   Atlantic Ocean.  The drive from Boston to Provincetown requires
  346.   approximately two hours. There is also a daily ferry (run by Bay State
  347.   Cruise Lines, 617 723-7800) that leaves Commonwealth Pier in Boston Harbor
  348.   at 9:30am and arrives in Provincetown at 12:30pm; the return trip departs
  349.   Provincetown at 3:30pm, arriving at  Commonwealth Pier at 6:30pm.   Its cost
  350.   is $15/person, one way. There are also cabs, busses and commuter airplanes
  351.   (CapeAir, 800 352-0714) that service this Boston-Provincetown route.
  352.  
  353. Reception (Tentative):
  354.   If there is sufficient interest (as indicated by signing up on the form
  355.   below), we will hold a reception on a private ferry that leaves Commonwealth
  356.   Pier for Provincetown at 6:30pm 9/Sept.  The additional (Siemens-subsidized)
  357.   cost for ferry and reception is $40/person, which also includes the return
  358.   Provincetown-Boston ferry trip on 12/Sept.  You must sign up by 30/June;
  359.   we will announce by 13/July whether this private ferry will be used (and
  360.   refund the money otherwise).
  361.  
  362. Inquiries:
  363.   For additional information about CLNL'93, contact
  364.          clnl93@learning.scr.siemens.com
  365.   or the above address.  To learn more about Provincetown, contact their
  366.   Chamber of Commerce at 508 487-3424.
  367.  
  368.  
  369.  
  370.                 CLNL'93 Registration
  371.  
  372. Name:           ________________________________________________
  373. Affiliation:    ________________________________________________
  374. Address:        ________________________________________________
  375.                 ________________________________________________
  376. Telephone: ____________________         E-mail: ____________________
  377.  
  378. Select the appropriate options and fees:
  379.  
  380. Workshop registration fee        ($50 regular; $25 student)        ___________
  381. Ferry transportation + reception ($40)                             ___________
  382. Hotel room(*)                    ($74 = 1 night deposit)           ___________
  383.         Arrival date ___________    Departure date _____________
  384.         Name of person sharing room (optional)  __________________
  385.         # of breakfasts desired ($7.50/bkfst; no deposit req'd) ___
  386.  
  387. Total amount enclosed:                                             ___________
  388.  
  389. (*) This is at the Provincetown Inn.  For minimum stay of 2 nights.
  390. The total cost for three nights is $222 = $74 x 3, plus optional breakfasts.
  391. The block of rooms held for CLNL'93 will be released on 30 June 93; room
  392. reservations received after this date are accepted subject to availability.
  393. See hotel for cancellation policy.
  394.  
  395.  
  396. If you are not using a credit card, make your check payable in U.S. dollars
  397. to "Provincetown Inn/CLNL'93", and mail your completed registration form to
  398.         Provincetown Inn/CLNL
  399.         P.O. Box 619
  400.         Provincetown, MA 02657.
  401. If you are using Visa or MasterCard, please fill out the following,
  402. which you may mail to above address, or FAX to 508 487-2911.
  403.         Signature:          ______________________________________________
  404.         Visa/MasterCard #:  ______________________________________________
  405.         Expiration:         ______________________________________________
  406.  
  407.  
  408. ------------------------------
  409.  
  410. Subject: call for papers: SAC '94
  411. From:    MASETTI@BOLOGNA.INFN.IT
  412. Date:    Mon, 17 May 93 09:57:00 +0000
  413.  
  414.       ===========================================================
  415.      |                                                           |
  416.      |                                                           |
  417.      |                                                           |
  418.      |                      CALL FOR PAPERS                      |
  419.      |                      ===============                      |
  420.      |                                                           |
  421.      |      1994 ACM Symposium on Applied Computing (SAC'94)     |
  422.      |                                                           |
  423.      |                                                           |
  424.      |           TRACK ON FUZZY LOGIC IN APPLICATIONS            |
  425.      |           ------------------------------------            |
  426.      |                                                           |
  427.      |        Phoenix Civic Plaza, Phoenix, Arizona, USA         |
  428.      |                                                           |
  429.      |                      March 6-8, 1994                      |
  430.      |                                                           |
  431.       ===========================================================
  432.  
  433.  
  434. SAC'94 is the annual conference of the ACM Special Interest Group
  435. on Applied Computing (SIGAPP), APL (SIGAPL), Biomedical Computing (SIGBIO),
  436. Business Information Technology (SIGBIT), Computer Uses in Education (SIGCUE),
  437. Forth (SIGFORTH), and Small and Personal Computer (SIGSMALL/PC).
  438. For the past nine years, SAC has become a primary forum for applied
  439. computing practitioners and researchers.
  440. Once again SAC'94 will be held in conjunction with the 1994 ACM Computer
  441. Science Conference (CSC'94).
  442. Fuzzy Logic in Applications is one of the major tracks in SAC.
  443. The purpose of this track is to provide a forum for the interchange of
  444. ideas, research, development activities, and applications among academic
  445. and practitioners in the areas related to Fuzzy Logic in Applications.
  446. State-of-the-art and state-of-the-practice original papers relevant to
  447. the track themes as well as panel proposals are solicited.
  448.  
  449.  
  450.  
  451. RELEVANT TOPICS:
  452.  
  453. Applications of Fuzzy Systems to:
  454.  
  455.    - System Control                          - Signal Processing
  456.    - Intelligent Information Systems         - Image Understanding
  457.    - Case-Based Reasoning                    - Pattern Recognition
  458.    - Decision Making and Analysis            - Robotics and Automation
  459.    - Modelling                               - Medical Diagnostic and MRI
  460.    - Databases and Information Retrieval     - Evolutionary Computation
  461.    - Neural Systems
  462.  
  463.  
  464.  
  465. IMPORTANT DATES:
  466.  
  467.    Submission of draft papers: 17.09.1993
  468.    Notification of acceptance: 01.11.1993
  469.    Camera-ready copy due:      20.11.1993
  470.  
  471.  
  472.  
  473. TRACK CHAIR:
  474.  
  475.    Madjid Fathi
  476.    FB Informatik, LS1
  477.    P.O.BOX 500 500
  478.    University of Dortmund
  479.    D-4600 Dortmund 50
  480.    Germany
  481.    Tel: +49231-7556372
  482.    FAX: +49231-7556555
  483.    Email: fathi@ls1.informatik.uni-dortmund.de
  484.  
  485.  
  486.  
  487. HONORARY ADVISOR :
  488.  
  489.    Lotfi A. Zadeh, University of California, Berkeley
  490.  
  491.  
  492.  
  493. TRACK ADVISORY:
  494.  
  495.    Y. Attikiouzel, Univ. of Western Australia
  496.    H. Berenji, NASA Ames Division, AI Research, CA, USA
  497.    M. Jamshidi, Univ. of New Mexico, NM, USA
  498.    A. Kandel, Univ. of South Florida, USA
  499.    R. Kruse, Univ. of Braunschweig, Germany
  500.    E.H. Mamdani, Univ. of London, GB
  501.    M. Masetti, Univ. of Bologna, Italy
  502.    H. Prade, Univ. of Paul Sabatier, France
  503.    B. Reusch, Univ. of Dortmund, Germany
  504.    E.H. Ruspini, SRI International, USA
  505.    H. Tanaka, Univ. of Osaka, Japan
  506.    L. Valverde, Univ. of de les Illes Baleares, Spain
  507.    R.R. Yager, Iona College, Editor in-chief, USA
  508.    H.J. Zimmermann, Univ. of Aachen, Germany
  509.  
  510.  
  511. GUIDELINES FOR SUBMISSION
  512.  
  513. Several Categories of papers will be considered for presentation and publication
  514. including:
  515.  
  516.   (i) original and unpublished research articles,
  517.  
  518.  (ii) Reports of applications in
  519.        - business,
  520.        - government,
  521.        - industrie,
  522.        - arts,
  523.        - science and
  524.        - engineering.
  525.  
  526.  
  527. Accepted papers will be published in the ACM/SAC'94 Conference Proceedings
  528. to be printed by the ACM Press.
  529. In order to facilitate the blind external review process, submission guidelines
  530. must be strictly adhered to:
  531.  
  532.   - Submit 5 copies of your manuscript to the track chair.
  533.  
  534.   - Authors names and addresses MUST NOT appear in the body of the paper,
  535.     self-reference must be in the third person, attribution to the author(s)
  536.     must be in the form of "author", and bibliographical entries by the
  537.     author(s) must also be in the form of "author".
  538.  
  539.   - The body of the paper should not exceed 5.000 words
  540.     (approximately 20 doubled-spaced pages).
  541.  
  542.   - A seperate cover sheet shoeld be attached to each copy, containing
  543.       - the title of the paper,
  544.       - the author(s) and affiliation(s),
  545.       - and the address (including e-mail address and fax number, if available)
  546.         to which correspondence should be sent.
  547.  
  548.   - Panel proposals must include abstract of the topics and a copy of
  549.     resume/vita of the moderator.
  550.  
  551.  
  552. ------------------------------
  553.  
  554. Subject: PASE'93
  555. From:    ff@lri.fr
  556. Date:    Mon, 24 May 93 17:56:59 +0100
  557.  
  558.  
  559.                               First Announcement
  560.  
  561.                                    PASE '93
  562.               4th International Workshop on Parallel Applications
  563.                            in Statistics and Economics
  564.  
  565.                  >>  Exploration of Complex Systems Dynamics  <<
  566.  
  567.                    Ascona, Switzerland, November 22-26, 1993
  568.                      Centro Stefano Franscini, Monte Verita
  569.  
  570.  
  571.  
  572. The purpose of this workshop is to bring together researchers interested
  573. in innovative information processing systems and their applications in
  574. the areas of statistics, finance and economics. The focus will be on
  575. in-depth presentations of state-of-the-art methods and applications as
  576. well as on communicating current research topics.  This workshop is
  577. intended for industrial and academic persons seeking new ways of
  578. comprehending the behavior of dynamic systems.  The PASE '93 workshop is
  579. concerned with but not restricted to the following topics:
  580.  
  581.                     o  Artificial Neural Networks
  582.                     o  Dynamical and Chaotic Systems
  583.                     o  Fuzzy Logic
  584.                     o  Genetic Algorithms
  585.                     o  Stochastic Optimization
  586.  
  587. Organizing Committee:
  588.  
  589.         M. Dacorogna, O&A Zurich             H. Beran, ICS Prague
  590.         F. Murtagh, Munotec Munich           M. Hanf, IPS ETH Zurich
  591.         E. Pelikan, ICS Prague               A. Scheidegger, CSCS Manno
  592.         D. Wuertz, IPS ETH Zurich            M. Tomassini, CSCS Manno
  593.  
  594. Please contact for further information and registration
  595.  
  596.                 Hynek Beran, ICS Prag
  597.                 Pod vodarenskou vezi 2
  598.                 182 07 PRAGUE 8, Czech Republic
  599.                 FAX:    +42 2 858 57 89
  600.                 E-mail: pase@uivt1.uivt.cas.cs
  601.  
  602. and for local arrangements
  603.  
  604.                 Marco Tomassini, CSCS Manno
  605.                 Galleria 2, Via Cantonale
  606.                 6928 MANNO, Switzerland
  607.                 FAX:    +41 91 506711
  608.                 E-mail: pase@cscs.ch
  609.  
  610. The workshop will be held near Ascona, an attractive holiday resort in
  611. Ticino, the Italian-speaking canton of Switzerland. In keeping with the
  612. tradition of the PASE workshop, an art exhibition as well as other social
  613. events will be organized.
  614.  
  615.  
  616. Further information will be available from anonymous ftp:
  617. ftp maggia.ethz.ch (129.132.17.1)
  618.  
  619.  
  620.  
  621.  "Instructions to Authors"
  622. ***** ASCII *****
  623. ____________________________________________________________________________
  624.  
  625.                       INSTRUCTIONS TO AUTHORS
  626.  
  627.    1. Manuscript
  628.  
  629.    Two copies  of  the  manuscript  should  be  submitted  to  the
  630. Organizing Committee (See the Contact Address).  Manuscripts  must
  631. be submitted in English.
  632.  
  633.    2. Copyright
  634.  
  635.    Original papers (not published or not simultaneously  submitted
  636. to another journal) will  be  reviewed.  Copyright  for  published
  637. papers will be vested in the publisher.
  638.  
  639.    3. Text
  640.  
  641.    Text double space on one side of the sheet only, with a  margin
  642. of at least 5 cm,  (2")  on  the  left.  Titles  of  chapters  and
  643. paragraphs should appear  clearly  distinguished  from  the  text.
  644. Complete text records on 5 1/4" floppy discs are prefered.
  645.  
  646.    4. Equations
  647.  
  648.    Mathematical equations inserted in the  text  must  be  clearly
  649. formulated in such a manner that there can be  no  possible  doubt
  650. about meaning of the symbols employed.
  651.  
  652.    5. Figures and Tables
  653.  
  654.    The figures,  if  any,  must  be  clearly  numbered  and  their
  655. position in the text marked. They will be drawn in Indian  ink  on
  656. white paper or tracing paper, bearing in mind that  they  will  be
  657. reduced to a width of either 7,5 or 15 (3  or  6")  for  printing.
  658. After scaling down, the normal  lines  ought  to  have  a  minimum
  659. thickness of 0,1 mm and maximum of 0,3 mm while  lines  for  which
  660. emphasis is wanted can  reach  a  maximum  thickness  of  0,5  mm.
  661. Labelling of the figures must be easy legible after reduction.  It
  662. will be as far as possible placed across the width of the  diagram
  663. from left to right. The height of  the  characters  after  scaling
  664. down must not be less than 1mm. Photographs for insertion  in  the
  665. text will be well defined and printed on glossy white  paper,  and
  666. will be scaled down for printing to a width of 7,5 to 15 cm (3  to
  667. 6").  All  markings  on  photographs  are  covered  by  the   same
  668. recommendations as for figures. It is recommended that authors  of
  669. communications  accompany  each  figure  or  photograph   with   a
  670. descriptive title giving sufficient information on the content  of
  671. the picture. Tables of characteristics or values inserted  in  the
  672. text or appended to the  article  must  be  prepared  in  a  clear
  673. manner, preferably as Camera  Ready  text.  Should  a  table  need
  674. several pages these must be kept together  by  sticking  or  other
  675. appropriate means in such a way as to emphasize the unity  of  the
  676. table.
  677.  
  678.    6. Abstracts and Required Informations
  679.  
  680.    An abstracts of 10 to 20 typed lines written by the  author  in
  681. the English will  precede  and  introduce  each  article.  Provide
  682. title, authors, affiliation, data of dispatch on a separate  sheet
  683. with exact mailing address for correspondence.
  684.  
  685.    7. References
  686.  
  687.    The references should be cited in a sequential manner  and  the
  688. reference numbers should  be in square brackets.  References  must
  689. be listed at the end of the paper in the numerical order.
  690.  
  691. Example for references to articles from journals
  692.  
  693. [1] Dawes E.M.,  Corrigan  K.:  Linear  models.  Trans.JSCM,  30},
  694. 1991, 42-51.
  695.  
  696. Example for references to articles from proceedings
  697.  
  698. [2] Brown B.: Linears models. In: Proc.of the  IEEE  International
  699. Conference, A.Priets(Eds), IEE Press, New York, 1988, 607-610.
  700.  
  701. Example for refrences to books
  702.  
  703. [3] Bollobes B.: Extremal Graph Theory. Springer, New York, 1988.
  704.  
  705. All references should be indicated in the manuscript.
  706.  
  707.  
  708.              ***   REMARKS FOR THE SPECIAL ISSUE    ***
  709.  
  710.      The contributions are requested by the Organizing Commitee on
  711. the PC-compatible 3 1/2" or 5 1/4" floppy disk in  an ASCII  form.
  712. Adding the TEX file will be welcomed. For figures the  post-script
  713. files can be also enclosed. Please, do send the  hardopy  together
  714. with your floppy disk. Sending your contribution in any other form
  715. may cause troubles for publishing.
  716.      In the case of any problems please do contact the  Organizing
  717. Commitee:
  718.  
  719.                 Hynek Beran, ICS Prague
  720.                 Pod vodarenskou vezi 2
  721.                 182 07 PRAGUE 8, Czech Republic
  722.                 FAX:    +42 2 858 57 89
  723.                 E-mail: pase@uivt1.uivt.cas.cs
  724.  
  725.      Your contributions are to be sent to the same address.
  726.  
  727. ================================================
  728.  
  729.  
  730.  
  731. ------------------------------
  732.  
  733. End of Neuron Digest [Volume 11 Issue 42]
  734. *****************************************
  735. Received: from BUACCA by BUACCA.BU.EDU (Mailer R2.08 PTF009) with BSMTP id
  736.  0517; Fri, 09 Jul 93 13:32:44 EDT
  737. Received: from noc4.dccs.upenn.edu by BUACCA.BU.EDU (IBM VM SMTP R1.2.1) with
  738.  TCP; Fri, 09 Jul 93 13:32:36 EDT
  739. Received: from CATTELL.PSYCH.UPENN.EDU by noc4.dccs.upenn.edu
  740.     id AA08659; Fri, 9 Jul 93 13:29:21 -0400
  741. Return-Path: <marvit@cattell.psych.upenn.edu>
  742. Received: from LOCALHOST by cattell.psych.upenn.edu
  743.     id AA04255; Fri, 9 Jul 93 12:17:11 EDT
  744. Posted-Date: Fri, 09 Jul 93 12:16:27 -0400
  745. From: "Neuron-Digest Moderator" <neuron-request@cattell.psych.upenn.edu>
  746. To: Neuron-Distribution:;
  747. Subject: Neuron Digest V11 #43 (jobs & misc)
  748. Reply-To: "Neuron-Request" <neuron-request@cattell.psych.upenn.edu>
  749. X-Errors-To: "Neuron-Request" <neuron-request@cattell.psych.upenn.edu>
  750. Organization: University of Pennsylvania
  751. Date: Fri, 09 Jul 93 12:16:27 -0400
  752. Message-Id: <4246.742234587@cattell.psych.upenn.edu>
  753. Sender: marvit@cattell.psych.upenn.edu
  754.  
  755. Neuron Digest   Friday,  9 Jul 1993
  756.                 Volume 11 : Issue 43
  757.  
  758. Today's Topics:
  759.                               job openings
  760.       Help: Research on Neural Robot Systems that Learn to Behave?
  761.                           Cultured Neural Nets
  762.                          NN and sismo. : results
  763.                    Reinforcement Learning Mailing List
  764.               Kolmogorov's Theorem, real world applications
  765.  
  766.  
  767. Send submissions, questions, address maintenance, and requests for old
  768. issues to "neuron-request@cattell.psych.upenn.edu". The ftp archives are
  769. available from cattell.psych.upenn.edu (130.91.68.31). Back issues
  770. requested by mail will eventually be sent, but may take a while.
  771.  
  772. ----------------------------------------------------------------------
  773.  
  774. Subject: job openings
  775. From:    John Ostrem <cic!john!ostrem@unix.sri.com>
  776. Date:    Tue, 22 Jun 93 13:48:32 -0800
  777.  
  778. Communication Intelligence Corporation (CIC) is a leader in handwriting
  779. recognition and other pen input technologies. We currently market
  780. recognizers for English, Western European, and Asian languages on a variety
  781. of platforms (e.g., DOS, Windows, Macintosh, and so on). These systems enable
  782. the pen to serve as the sole input and control device, combining the functions
  783. of both keyboard and mouse, and adding new capabilities.
  784.  
  785. Advanced development is directed toward integrated discrete/cursive
  786. recognizers, and future integration with voice recognition, OCR, and
  787. similar technologies.
  788.  
  789. CIC was founded in 1981 in conjunction with SRI International (formerly
  790. Stanford Research Institute).  CIC is headquartered in Redwood Shores,
  791. California, and has an international subsidiary, CIC Japan, Inc., in
  792. Tokyo, Japan.
  793.  
  794. CIC currently has immediate openings for the following positions:
  795.  
  796. - -----------------------------------------------------------------------------
  797.  
  798. POSITION: Software Engineer
  799.  
  800. QUALIFICATIONS:
  801.  
  802. 1.  3-5 years experience in designing and coding for large software projects
  803.     in a UNIX environment
  804. 2.  Good communication skills and works well with other people.
  805. 3.  Expert C programmer (at least 3-5 years experience)
  806. 4.  BS or MS in Computer Science or the equivalent
  807. 5.  Experience in graphics programming and user interfaces a plus
  808. 6.  The following are additional pluses:
  809.  
  810.     a.  Experience in handwriting recognition (on-line or off-line)
  811.     b.  Linguistic experience (particularly statistical linguistics)
  812.     c.  Experience planning/executing complex projects
  813.     d.  Experience in commercial companies
  814.     e.  Experience in SunOS system administration
  815.  
  816. JOB DESCRIPTION:
  817.  
  818. 1.  Work with and support researchers working on handwriting and speech
  819.     recognition
  820. 2.  Design, implement, and support data collection software and analysis
  821.     tools
  822.  
  823.  
  824. - -----------------------------------------------------------------------------
  825.  
  826. POSITION: Pattern Recognition Specialist/project leader
  827.  
  828. QUALIFICATIONS:
  829.  
  830. 1.  Strong background in statistics, pattern recognition, algorithm development
  831. 2.  Experience in OCR a plus
  832. 3.  3-5 years experience in designing and coding for large software projects
  833.     in a UNIX environment
  834. 4.  Good communication skills and works well with other people.
  835. 5.  Expert C programmer (at least 3-5 years experience)
  836. 6.  Ph.D. or substantial experience in Computer Science, Electrical
  837.     Engineering or the equivalent
  838. 7.  The following are additional pluses:
  839.  
  840.     a.  Experience in handwriting recognition (on-line or off-line)
  841.     b.  Linguistic experience (particularly statistical linguistics)
  842.     c.  Experience planning/executing complex projects
  843.     d.  Experience in commercial companies
  844.  
  845. JOB DESCRIPTION
  846.  
  847. 1.  Work with a team of researchers on the next generation of handwriting
  848.     recognition systems (both off-line and on-line) for the commercial
  849.     market
  850. 2.  Develop into a project leader/manager
  851.  
  852. - -----------------------------------------------------------------------------
  853.  
  854. Please reply to cic!ostrem@unix.sri.com (or cic\!ostrem@unix.sri.com in
  855. command mode), or write or fax to
  856.  
  857. John S. Ostrem
  858. Communication Intelligence Corporation
  859. 275 Shoreline Drive, 6th Floor
  860. Redwood Shores,  CA 94065-1413
  861. Fax:  (415) 802-7777
  862.  
  863.  
  864.  
  865.  
  866. ------------------------------
  867.  
  868. Subject: Help: Research on Neural Robot Systems that Learn to Behave?
  869. From:    ashley@cs.unsw.oz.au (Ashley Aitken)
  870. Date:    Mon, 05 Jul 93 19:29:16 +0900
  871.  
  872.  
  873. G'day,
  874.  
  875. I am interested in finding out about research labs around the world that are
  876. actively working in the following research area,
  877.  
  878. Real or more-likely simulated Robots, or part thereof, which are capable of
  879. Learning Sensory-Motor Maps and Complex Behaviours, and to some degree
  880. Based on Neuroscience (ie biologically plausible neural networks).
  881.  
  882. Two researchers that come to mind are Gerald Edelman (Neural Darwin Systems)
  883. and Michael Kuperstein (Neural Model of Adaptive Hand-Eye Coordination).
  884.  
  885. If you could please e-mail me any details I would be most grateful. If there
  886. is enough interest I will post a summary.
  887.  
  888. Thanks in advance,
  889. Ashley Aitken.
  890.  
  891. - --
  892. E-MAIL  :               ashley@cse.unsw.edu.au                   AARNet
  893.  
  894. Schools of EE and CS&E, (AI Lab)        c/o Basser College, (Flat 7A)
  895. University of New South Wales,          The Kensington Colleges,
  896. Box 1,PO KENSINGTON,N.S.W.,2033.        Box 24,PO KENSINGTON,N.S.W,2033.
  897. AUSTRALIA.                              AUSTRALIA.
  898.  
  899.  
  900.  
  901. ------------------------------
  902.  
  903. Subject: Cultured Neural Nets
  904. From:    Steve Potter <spotter@darwin.bio.uci.edu>
  905. Date:    Fri, 02 Jul 93 12:26:17 -0800
  906.  
  907. Below I present a bibliography of all of the researchers I know of that
  908. are growing neurons in culture on multielectrode substrates.  A belated
  909. thank-you is due to several connectionists who responded to my request
  910. posted a couple of years ago. This is a
  911. surprisingly small list.  If you know of someone I have missed, please
  912. send me email (spotter@darwin.bio.uci.edu).
  913.  
  914. I believe that approaches such as these are likely to close the gap
  915. between the engineering and biological camps of neural network research.
  916. With long-term, multi-site monitoring of real (though simple) networks, we
  917. may learn which aspects of real neural processors must be included in our
  918. simulations if we hope to emulate the accomplishments of Mother Nature.
  919.  
  920. If you are involved in this research and I have not contacted
  921. you already, please email me; I am looking for a post-doctoral position.
  922.  
  923. Steve Potter
  924. Psychobiology dept.
  925. UC Irvine
  926. Irvine, CA 92717
  927. spotter@darwin.bio.uci.edu
  928.  
  929.  
  930. CULTURED NETS ON MULTI-ELECTRODE SUBSTRATES:
  931. (Recent or representative publications are listed)
  932. Steve Potter 7-2-93
  933. spotter@darwin.bio.uci.edu
  934.  
  935.  
  936. Masuo Aizawa
  937.  
  938. (Layman's article)
  939. Freedman, D.H. (1992). If he only had a brain. Discover  : 54-60.
  940.  
  941.  
  942. Robert L. Dawes, Martingale Research (Texas)
  943.  
  944. (Proposal--Never followed up?)
  945. Dawes, R.L. (1987). Biomasscomp: A procedure for mapping the architecture
  946. of a living neural network into a machine. IEEE ICNN proceedings  3: 215-225.
  947.  
  948.  
  949. Mitch D. Eggers, MIT
  950.  
  951. (Any subsequent work with this device?)
  952. Eggers, M.D., Astolfi, D.K., Liu, S., Zeuli, H.E., Doeleman, S.S., McKay,
  953. R., Khuon, T.S., and Ehrlich, D.J. (1990). Electronically wired petri
  954. dish:  A microfabricated interface to the biological neuronal network. J.
  955. Vac. Sci. Technol. B  8: 1392-1398.
  956.  
  957.  
  958. Peter Fromherz, Ulm University (Germany)
  959.  
  960. Fromherz, P., Offenhausser, A., Vetter, T., and Weis, J. (1991). A
  961. neuron-silicon junction: a Retzius cell of the leech on an insulated-gate
  962. field-effect transistor. Science  252: 1290-3.
  963.  
  964.  
  965. Guenter W. Gross, U. of N. Texas
  966.  
  967. Gross, G.W. and Kowalski, J. (1991) Experimental and theoretical analysis
  968. of random nerve cell network dynamics, in Neural Networks: Concepts,
  969. applications, and implementations (P. Antognetti and B Milutinovic, Eds.)
  970. Prentice-Hall: NJ. p. 47-110.
  971.  
  972.  
  973. Vera Janossy, Central Research Inst. for Physics (Hungary)
  974.  
  975. Janossy, V., Toth, A., Bodocs, L., Imrik, P., Madarasz, E., and Gyevai, A.
  976. (1990). Multielectrode culture chamber: a device for long-term recording
  977. of bioelectric activities in vitro. Acta Biol Hung  41: 309-20.
  978.  
  979.  
  980. Akio Kawana, NTT (Japan)
  981.  
  982. (News article)
  983. Koppel, T. (1993). Computer firms look to the brain. Science  260: 1075-1077.
  984.  
  985.  
  986. Jerome Pine, Caltech
  987.  
  988. Regehr, W.G., Pine, J., Cohan, C.S., Mischke, M.D., and Tank, D.W. (1989).
  989. Sealing cultured invertebrate neurons to embedded dish electrodes
  990. facilitates long-term stimulation and recording. J Neurosci Methods  30:
  991. 91-106.
  992.  
  993.  
  994. David W. Tank, AT&T Bell Labs
  995.  
  996. (Abstract)
  997. Tank, D.W. and Ahmed, Z. (1985). Multiple site monitoring of activity in
  998. cultured neurons. Biophys. J.  47: 476a.
  999.  
  1000.  
  1001. C. D. W. Wilkinson, U. of Glasgow (Scotland)
  1002.  
  1003. Connolly, P., Clark, P., Curtis, A.S., Dow, J.A., and Wilkinson, C.D.
  1004. (1990). An extracellular microelectrode array for monitoring electrogenic
  1005. cells in culture. Biosens Bioelectron  5: 223-34.
  1006.  
  1007. Curtis, A.S., Breckenridge, L., Connolly, P., Dow, J.A., Wilkinson, C.D.,
  1008. and Wilson, R. (1992). Making real neural nets: design criteria. Med Biol
  1009. Eng Comput  30: CE33-6.
  1010.  
  1011.  
  1012. ACUTE PREPS (NOT CULTURED):
  1013.  
  1014. Bruce C. Wheeler, U. of Illinois
  1015.  
  1016. (Hippocampal slice)
  1017. Boppart, S.A., Wheeler, B.C., and Wallace, C.S. (1992). A flexible
  1018. perforated microelectrode array for extended neural recordings. Ieee Trans
  1019. Biomed Eng  39: 37-42.
  1020.  
  1021. Novak, J.L. and Wheeler, B.C. (1986). Recording from the Aplysia abdominal
  1022. ganglion with a planar microelectrode array. Ieee Trans Biomed Eng  33:
  1023. 196-202.
  1024.  
  1025.  
  1026. Markus Meister, Harvard
  1027.  
  1028. Meister, M., Wong, R.O., Baylor, D.A., and Shatz, C.J. (1991). Synchronous
  1029. bursts of action potentials in ganglion cells of the developing mammalian
  1030. retina. Science  252: 939-43.
  1031.  
  1032. Litke, A. and Meister, M. (1991). The retinal readout array. Nuclear
  1033. Instruments and Methods in Physics Research  A310: 389-394.
  1034.  
  1035.  
  1036.  
  1037.  
  1038.  
  1039.  
  1040. ------------------------------
  1041.  
  1042.  
  1043. Subject: NN and sismo. : results
  1044. From:    slablee@mines.u-nancy.fr
  1045. Date:    Tue, 06 Jul 93 10:29:02 +0700
  1046.  
  1047.  
  1048. I posted a request for help in February 1993, and promised to
  1049. sum up the answers as soon as possible.
  1050. Well, I really got many answers, and I finally found a little
  1051. time to give you these results.
  1052.  
  1053. My problem was :
  1054. I'm trying to use NN to detect the start of a sampled signal
  1055. within noise.
  1056. My first attempts with a BackProp Network (7520x150x70x1 !!!)
  1057. were unsuccesfull, because of network "paralysis" (as describe
  1058. by Rumelhart) and local minima. The network always stopped
  1059. learning with a rather high error.
  1060.  
  1061. After having received all the answers, I decided to use the
  1062. Cascade-Correlation of Scott Fahlman, which worked very well...
  1063.  
  1064. Let me first thank all the following people for having replied
  1065. my request :
  1066.  
  1067. Rick Alan (IEEE Neural Network Council, USA)
  1068.         - 70324.1625@compuserve.com -
  1069. Frederic Alexandre (CRIN (Computer Research Center), Nancy, France)
  1070.         - falex@loria.crin.fr -
  1071. Bill Armstrong (University of Alberta, Canada)
  1072.         - arms@cs.ualberta.ca -
  1073. Paul Bakker (University of Queenland, Lucia, Australia)
  1074.         - bakker@cs.uq.oz.au -
  1075. Bart Bartholomew (US National Coomputer Security Center, Meade, Maryland, USA)
  1076.         - hcbarth@afterlife.ncsc.mil -
  1077. Istvan Berkeley (University of Alberta, Canada)
  1078.         - istvan@psych.ualberta.ca -
  1079. Weiren Chang (University of Texas, USA)
  1080.         - wrchang@ccwf.cc.utexas.edu -
  1081. Terry Chung (Queen's University, Canada)
  1082.         - terry@solar.me.queensu.ca -
  1083. Michel Ianotto (Supelec, Metz, France)
  1084.         - mi@ese-metz.fr -
  1085. Charles W.Lee (Bolton Institute, Bolton, UK)
  1086.         - (helped me by mail (I mean "snail-mail" !),
  1087.             I didn't find any e-mail address...) -
  1088. Stan Malyshev (University of California, Berkeley, USA)
  1089.         - stas@sting.berkeley.edu -
  1090. William A.Rennie (University of Albany, New-York, USA)
  1091.         - wr5908@csc.albany.edu -
  1092. George Rudolph (Brigham Young University, Provo, Utah, USA)
  1093.         - george@axon.cs.byu.edu -
  1094. Soheil Shams (Hughes Research Labs, Malibu, Canada)
  1095.         - shams@maxwell.hrl.hac.com -
  1096.  
  1097. - ----------------------------------------------------------------
  1098.  
  1099. This project was lead by the INERIS (Institut National de
  1100. l'Environnement Industriel et des Risques = National Institute
  1101. of Industrial Environment and Risks), and help was offered by
  1102. the Earth Science Department (Earth Mechanics Laboratories) of the
  1103. Ecole des Mines de Nancy (Nancy, France).
  1104.  
  1105. It lead, among other things, to the study of the possibility of
  1106. using NN for detecting the start of a sismical wave (P-wave)
  1107. within a signal with a lot of noise.
  1108. This study showed that using NN could bring better results in this
  1109. problem of P-wave-detection.
  1110. So we build a connexionnist system called SCOP (Systeme Connexionniste
  1111. de Pointage).
  1112. This system is going to be improved and tested soon.
  1113. It uses the Cascade-Correlation algorithm (from Scott E.Fahlman - Carnegie
  1114. Mellon University, Pittsburgh, PA).
  1115. I hope further studies will show other uses of this system (in the same
  1116. field).
  1117.  
  1118. - -------------------------------------------------------------------------
  1119.  
  1120. I worked on a HP9000-720 computer, under UNIX system.
  1121. All the parts of the system have been developped in C (ANSI).
  1122.  
  1123. I pre-processed the signal with the Gabor method (a "sliding" FFT)
  1124. wich give a 3-Dimensional representation of the spectrum
  1125. (a time-frequencies diagram).
  1126. We will perhaps study the results with using a Wavelet preprocessing.
  1127.  
  1128. The NN take a 400 points input (each point = the spectral value at a
  1129. given time for a given frequency).
  1130. So the NN have, after learning, about 410 units.
  1131.  
  1132. There are 5 outputs. Each output unit represents a time window containing
  1133. the start of P-waves. In the learning patterns, there were four zeros
  1134. and one 1. The output unit which have the 1 value give the window which
  1135. must contain the start of P-waves.
  1136.  
  1137. The results were 89.8 % of good answers for a 1.3 seconds window
  1138. (versus 83 % with the "classical" (not NN) algorithms).
  1139. The problem was the lack of datas for learning. The network learned
  1140. with about 3000 patterns, and was tested with about 500 patterns.
  1141.  
  1142. - --------------------------------------------------------------------------
  1143.  
  1144. If you want more details about this project, please e-mail to :
  1145.  
  1146.                slablee@mines.u-nancy.fr
  1147.            (BE CAREFUL : until August 1st only)
  1148.                           or
  1149.            gueniffe@mines.u-nancy.fr  after August 1st
  1150.            (please explain that the message is for me !)
  1151. - --------------------------------------------------------------------------
  1152.  
  1153.                       SOME OF THE ANSWERS
  1154.                       ====================
  1155.  
  1156. Terry Solar advised me to use the Scott Fahlman's Cascade Correlation,
  1157. because the results I had could be the best performance I could have
  1158. with the BackProp structure : backprop NNs have a fixed structure so
  1159. we can just "fine tune" an initial "guess"...
  1160.  
  1161. Bart Bartholomew spent a long time to explain me his experiences with
  1162. the pre-processing problems. He noticed that the zeroth component is
  1163. actually the D.C. bias of the input terms and can normally be discarded
  1164. here. Another idea would be to use the differences of the frequencies
  1165. rather than the frequencies themselves. I didn't have yet enough time for
  1166. trying this. Bart spoke also of filters. Sorry Bart, I didn't find enough
  1167. time again !
  1168.  
  1169. Weiren Chang spoke about simulated annealing or perturbations of the
  1170. weights in order to avoid local minima. The problem is : the larger
  1171. the network is, the easier you run into a local minimum. And my first
  1172. network was really huge !
  1173.  
  1174. Rick Alan said that the key to getting a net to learn is preprocessing
  1175. thre data properly. I perfectly agree with this opinion : the REAL problem
  1176. in NN learning is preprocessing.
  1177.  
  1178. Paul Bakker spoke about the "relativity" of the error (this word is mine !).
  1179. What he means is : I said that I have a 5 % error, but this could be of
  1180. no importance if the result is 0.95 for a 1 target, and 0.5 for a 0 target.
  1181. The problem was that I was using with back-prop a real number as output,
  1182. between 0 and 1, and not a binary answer (like bits). Now, I've
  1183. changed my outputs, and they are bits, so Paul's words are wrights.
  1184.  
  1185. William A.Rennie had the same idea as Paul Bakker about binary outputs.
  1186. He also spoke of OVERTRAINING. It is perhaps the thing that helped me
  1187. the most, because overtraining is a real problem that I didn't see.
  1188. The problem is that the net could start to memorize the training data
  1189. rather than generalizing. William says that my training set would
  1190. probably have to contain over a half a million cases to prevent
  1191. memorization (he was speaking about my 7520x150x70x1 backprop-net,
  1192. not about the later one). There's a mean to avoid this : to compute
  1193. the error for the testing set at each iteration, and stop the
  1194. training when the performance on the training set begins to climb
  1195. rapidly while performance on the testing data remains unchanged (so
  1196. it is the beginning of overtraining).
  1197. I trained my net like this, and... IT WORKED !
  1198. The performance was really better.
  1199.  
  1200. Bill Armstrong proposed to use the Atree Adaptive Logic Network
  1201. Simulation Package (available via ftp from menaik.cs.ualberta.ca
  1202. [129.128.4.241] in pub/atre27.exe).
  1203.  
  1204. Soheil Shams thinks (like others) that my network was huge and need
  1205. a real large database of samples. He says also that it is important
  1206. to look at the net input sum to each neuron to make sure it is not
  1207. saturated.
  1208.  
  1209. Istvan Berkeley also said that my net was huge, and that my learning
  1210. set could just be unlearnable...
  1211.  
  1212. Stan Malyshev proposed to use QuickProp instead of BackProp.
  1213. Well, the Cascade-Correlation algorithm I used after these answers
  1214. was using QuickProp.
  1215. He also advised to put my units into a single layer, for faster learning.
  1216. I did it... and he was wright !
  1217.  
  1218. Michel Ianotto advised to be careful in the choice of the activation function.
  1219.  
  1220. For George Rudolph, the problem is not necessarily the BackProp, but
  1221. the purposes and datas of my network, and the way I turned my problem.
  1222.  
  1223. And Charles W.Lee gave me a paper of him (to appear in 'neural networks')
  1224. called : 'learning in neural networks by using tangent planes to constraint
  1225. surfaces'. (I didn't find his e-mail, but I have his address and his phone
  1226. number).
  1227.  
  1228. - ----------------------------------------------------------------------------
  1229.  
  1230. Thanks everybody !
  1231.  
  1232. The Cascade-Correlation Learning Architecture was developped by :
  1233. Scott E.Fahlman - School of Computer Science - Carnegie Mellon University -
  1234. 5000 Forbes Avenue - Pittsburgh - PA 15213.
  1235. Internet : sef+@cs.cmu.edu       Phone : 412 268-2575
  1236. A C code of Cascade-Correlation and some papers about it could be found
  1237. by ftp at ftp.cs.cmu.edu [128.2.206.173] in afs/cs/project/connect/code
  1238.  
  1239. - ----------------------------------------------------------------------------
  1240.  
  1241.                          Stephane Lablee
  1242.  
  1243.               slablee@mines.u-nancy.fr (until 01/08/93)
  1244.               gueniffe@mines.u-nancy.fr (after 01/08/93)
  1245.  
  1246.                      Ecole des Mines de Nancy
  1247.                         Parc de Saurupt
  1248.                        54042 Nancy Cedex
  1249.                              France
  1250.  
  1251. - ----------------------------------------------------------------------------
  1252.  
  1253.  
  1254.  
  1255.  
  1256.  
  1257.  
  1258.  
  1259.  
  1260.  
  1261.  
  1262.  
  1263.  
  1264.  
  1265.  
  1266. - --
  1267.  
  1268.  
  1269. ------------------------------
  1270.  
  1271. Subject: Reinforcement Learning Mailing List
  1272. From:    Matthew McDonald <mafm@cs.uwa.edu.au>
  1273. Date:    Thu, 08 Jul 93 13:34:17 +0700
  1274.  
  1275.  
  1276.         This message is to announce an informal mailing list
  1277. devoted to reinforcement learning. The list is intended to provide an
  1278. informal, unmoderated, forum for discussing subjects relevant to
  1279. research in reinforcement learning; in particular, discussion of
  1280. problems, interesting papers and that sort of thing is welcome.
  1281. Announcements and other information relevant to researchers in the
  1282. field are also welcome. People are encouraged to post abstracts of
  1283. recent papers or reports.
  1284.  
  1285.         The list is intended to be fairly informal and unmoderated.
  1286. If you'd like to join the list, please send mail to
  1287. `reinforce-request@cs.uwa.edu.au'
  1288.  
  1289. Cheers,
  1290. - --
  1291.            Matthew McDonald  mafm@cs.uwa.oz.au
  1292. Nothing is impossible for anyone impervious to reason.
  1293.  
  1294.  
  1295. ------------------------------
  1296.  
  1297. Subject: Kolmogorov's Theorem, real world applications
  1298. From:    CMRGW@staffordshire.ac.uk
  1299. Date:    Fri, 09 Jul 93 10:40:00 +0000
  1300.  
  1301. To: neuron-request@130.91.68.31
  1302. Subject: re Kolmogorovs Theorem
  1303. Status: R
  1304.  
  1305.  
  1306. In issue number 37 K. Maguire writes
  1307. > any real-world applications of Kolmogorovs Theorem  <
  1308.  
  1309. In this months issue of the Journal of Chemical Information and Computer
  1310. Sciences I have a paper titled "Predicting Phosphorus NMR Shifts Using
  1311. Neural Networks". In essence this paper demonstrates that Nets can be
  1312. used to represent the continuous mapping that occurs between the
  1313. parameters of molecular structure (a la graph theory ) and the NMR shift of
  1314. a central resonating atom. Currently there are several non net methods for
  1315. predicting these shifts from the structure, but these are generally long
  1316. and have a high manual analysis component, ofeten taking weeks for any
  1317. one sub class of compounds. On an IRIS wd34, the net can find a decent
  1318. generalisation in several hours. The material in the JCICS paper was
  1319. submitted last June. To date our results indicate that we are very close
  1320. to the current state of the art in terms of prediction performance. As in
  1321. Chemistry, new compounds are being continuously discovered the prediction
  1322. methods currently used "go off" when new compounds are discovered in the
  1323. various subclasses. The manual derivation process must then be repeated.
  1324. The ability of the net to do this automatically is a major step forward
  1325. We anticipate that in the next few years ournet based method will find
  1326. quite a lot of use.
  1327.  
  1328.                 Geoff West
  1329.  
  1330.  
  1331.  
  1332.  
  1333. ------------------------------
  1334.  
  1335. End of Neuron Digest [Volume 11 Issue 43]
  1336. *****************************************
  1337. Received: from BUACCA by BUACCA.BU.EDU (Mailer R2.08 PTF009) with BSMTP id
  1338.  8490; Thu, 15 Jul 93 17:51:07 EDT
  1339. Received: from noc4.dccs.upenn.edu by BUACCA.BU.EDU (IBM VM SMTP R1.2.1) with
  1340.  TCP; Thu, 15 Jul 93 17:50:59 EDT
  1341. Received: from CATTELL.PSYCH.UPENN.EDU by noc4.dccs.upenn.edu
  1342.     id AA16182; Thu, 15 Jul 93 17:48:55 -0400
  1343. Return-Path: <marvit@cattell.psych.upenn.edu>
  1344. Received: from LOCALHOST by cattell.psych.upenn.edu
  1345.     id AA10924; Thu, 15 Jul 93 16:41:34 EDT
  1346. Posted-Date: Thu, 15 Jul 93 16:40:55 -0400
  1347. From: "Neuron-Digest Moderator" <neuron-request@cattell.psych.upenn.edu>
  1348. To: Neuron-Distribution:;
  1349. Subject: Neuron Digest V11 #44 (papers & TRs)
  1350. Reply-To: "Neuron-Request" <neuron-request@cattell.psych.upenn.edu>
  1351. X-Errors-To: "Neuron-Request" <neuron-request@cattell.psych.upenn.edu>
  1352. Organization: University of Pennsylvania
  1353. Date: Thu, 15 Jul 93 16:40:55 -0400
  1354. Message-Id: <10890.742768855@cattell.psych.upenn.edu>
  1355. Sender: marvit@cattell.psych.upenn.edu
  1356.  
  1357. Neuron Digest   Thursday, 15 Jul 1993
  1358.                 Volume 11 : Issue 44
  1359.  
  1360. Today's Topics:
  1361.                    Administrivia - Paper announcements
  1362.     Preprint available: A network to velocity vector-field correction
  1363.               New Book and Videotape on Genetic Programming
  1364.           Subject: Preprint available: On spike synchronization
  1365. Preprint: Computational Models of the Neural Bases of Learning and Memory
  1366.                paper available - the Ghost in the Machine
  1367.                             thesis available
  1368.                        PhD dissertation available
  1369.  
  1370.  
  1371. Send submissions, questions, address maintenance, and requests for old
  1372. issues to "neuron-request@cattell.psych.upenn.edu". The ftp archives are
  1373. available from cattell.psych.upenn.edu (130.91.68.31). Back issues
  1374. requested by mail will eventually be sent, but may take a while.
  1375.  
  1376. ----------------------------------------------------------------------
  1377.  
  1378. Subject: Administrivia - Paper announcements
  1379. From: "Neuron-Digest Moderator, Peter Marvit" <neuron@cattell.psych.upenn.edu>
  1380. Date:    Thu, 15 Jul 93 16:27:10 -0500
  1381.  
  1382. Dear readers,
  1383.  
  1384. Many of you have noticed a lack of paper and technical report
  1385. announcements for some time with the Neuron Digest.  As moderator, I have
  1386. tended to put priority to time-sensitive conference announcements and
  1387. general personal discussion (including jobs announcements).  So, I have
  1388. had a significant backlog of papers and TRs.  I will start rectifying the
  1389. absence. Unfortunately, many "pre-prints" will now be available in the
  1390. journals or conference proceedings.
  1391.  
  1392. As a reminder, if someone advertises, hard-copy *PLEASE* do not
  1393. indiscriminately ask for copies. A deluge of requests from the net can
  1394. put a strain on a researcher's time and budget.  Carefully read the
  1395. abstract and then decide if you think it is worth someone to make a copy,
  1396. address an envelope, put on lots of stamps, and mail it to you.  Please
  1397. also note that many hard-copy adverts include specific mailing
  1398. instructions plus a publication fee.  Please read the directions
  1399. carefully.
  1400.  
  1401. This is also a note to encourage electronic distribution of manuscripts,
  1402. either in Postscript form with figures or plain text.
  1403.  
  1404. Cheers and happy reading!
  1405. Peter
  1406.  
  1407. : Peter Marvit, Neuron Digest Moderator                                    :
  1408. : Email: <neuron-request@cattell.psych.upenn.edu>                          :
  1409. : Courtesy of the Psychology Department,  University of Pennsylvania       :
  1410. : 3815 Walnut St., Philadelphia, PA  19104  w:215/898-6274  h:215/387-6433 :
  1411.  
  1412. ------------------------------
  1413.  
  1414. Subject: Preprint available: A network to velocity vector-field correction
  1415. From:    Alfred_Nischwitz <alfred@lnt.e-technik.tu-muenchen.de>
  1416. Date:    Mon, 31 Aug 92 14:14:10 +0100
  1417.  
  1418.  
  1419. The following paper has been accepted for publication in the
  1420. proceedings of the International Conference on
  1421. Artificial Neural Networks '92 in Brighton:
  1422.  
  1423.         Relaxation in 4D state space - A competitive network
  1424.         approach to object-related velocity vector-field correction
  1425.  
  1426.  
  1427. by  Helmut Gluender       Institut fuer Medizinische Psychologie
  1428.                           Ludwig-Maximilians-Universitaet
  1429.                           Goethestrasse 31, D-8000 Muenchen 2, Germany
  1430.  
  1431. and Astrid Lehmann        Lehrstuhl fuer Nachrichtentechnik
  1432.                           Technische Universitaet Muenchen
  1433.                           Arcisstrasse 21, D-8000 Muenchen 2, Germany
  1434.  
  1435. ABSTRACT:
  1436.  
  1437. A standard principle of (energy-)minimization is applied to the
  1438. problem of visual motion analysis. In contrast to well-known
  1439. mathematical optimization procedures and universal optimizing
  1440. networks it is proposed to use a problem-adapted network
  1441. architecture. Owing to the bilocal coincidence-type motion
  1442. detector considered here the task of object-related motion
  1443. analysis appears as a geometric correspondence problem. Hence,
  1444. the correct spatio-temporal correspondeces between elements in
  1445. consecutive images must be selected from all possible ones. This
  1446. is performed by neighborhood operations that are repeatedly
  1447. applied to the instantaneous signal representation in the
  1448. space/velocity-domain until an estimate of the actual flow-field
  1449. is reached.
  1450.  
  1451. Hardcopies of the paper are available. Please send requests
  1452. to the following address in Germany:
  1453.  
  1454.         Helmut Gluender
  1455.         Institut fuer Medizinische Psychologie
  1456.         Ludwig-Maximilians-Universitaet
  1457.         Goethestrasse 31, D-8000 Muenchen 2, Germany
  1458.  
  1459. or via email to:
  1460.         alfred@lnt.e-technik.tu-muenchen.de
  1461.  
  1462. communicated by Alfred Nischwitz
  1463.  
  1464.  
  1465. ------------------------------
  1466.  
  1467. Subject: New Book and Videotape on Genetic Programming
  1468. From:    John Koza <koza@CS.Stanford.EDU>
  1469. Date:    Sun, 15 Nov 92 16:40:57 -0800
  1470.  
  1471.  
  1472.  
  1473. BOOK AND VIDEOTAPE ON GENETIC PROGRAMMING
  1474.  
  1475. A new book and a one-hour videotape (in VHS NTSC, PAL, and SECAM
  1476. formats) on genetic programming are now available from the MIT
  1477. Press.
  1478.  
  1479. NEW BOOK...
  1480.  
  1481. GENETIC PROGRAMMING: ON THE PROGRAMMING OF COMPUTERS BY
  1482. MEANS OF NATURAL SELECTION
  1483.  
  1484. by John R. Koza, Stanford University
  1485.  
  1486. The recently developed genetic programming paradigm provides a
  1487. way to genetically breed a computer program to solve a wide variety
  1488. of problems.  Genetic programming starts with a population of
  1489. randomly created computer programs and iteratively applies the
  1490. Darwinian reproduction operation and the genetic crossover (sexual
  1491. recombination) operation in order to breed better individual
  1492. programs.  The book describes and illustrates genetic programming
  1493. with 81 examples from various fields.
  1494.  
  1495. 840 pages.  270 Illustrations.  ISBN 0-262-11170-5.
  1496.  
  1497. Contents...
  1498.  
  1499. 1   Introduction and Overview
  1500. 2   Pervasiveness of the Problem of Program Induction
  1501. 3   Introduction to Genetic Algorithms
  1502. 4   The Representation Problem for Genetic Algorithms
  1503. 5   Overview of Genetic Programming
  1504. 6   Detailed Description of Genetic Programming
  1505. 7   Four Introductory Examples of Genetic Programming
  1506. 8   Amount of Processing Required to Solve a Problem
  1507. 9   Nonrandomness of Genetic Programming
  1508. 10  Symbolic Regression - Error-Driven Evolution
  1509. 11  Control - Cost-Driven Evolution
  1510. 12  Evolution of Emergent Behavior
  1511. 13  Evolution of Subsumption
  1512. 14  Entropy-Driven Evolution
  1513. 15  Evolution of Strategy
  1514. 16  Co-Evolution
  1515. 17  Evolution of Classification
  1516. 18  Iteration, Recursion, and Setting
  1517. 19  Evolution of Constrained Syntactic Structures
  1518. 20  Evolution of Building Blocks
  1519. 21  Evolution of Hierarchies of Building Blocks
  1520. 22  Parallelization of Genetic Programming
  1521. 23  Ruggedness of Genetic Programming
  1522. 24  Extraneous Variables and Functions
  1523. 25  Operational Issues
  1524. 26  Review of Genetic Programming
  1525. 27  Comparison with Other Paradigms
  1526. 28  Spontaneous Emergence of Self-Replicating and Self-Improving
  1527.     Computer Programs
  1528. 29  Conclusions
  1529.  
  1530. Appendices contain simple software in Common LISP for
  1531. implementing experiments in genetic programming.
  1532.  
  1533. ONE-HOUR VIDEOTAPE...
  1534.  
  1535. GENETIC PROGRAMMING: THE MOVIE
  1536.  
  1537. by John R. Koza and James P. Rice, Stanford University
  1538.  
  1539. The one-hour videotape (in VHS NTSC, PAL, and SECAM formats)
  1540. provides a general introduction to genetic programming and a
  1541. visualization of actual computer runs for 22 of the problems
  1542. discussed in the book GENETIC PROGRAMMING: ON THE PROGRAMMING
  1543. OF COMPUTER BY MEANS OF NATURAL SELECTION.  The problems
  1544. include symbolic regression, the intertwined spirals, the artificial
  1545. ant, the truck backer upper, broom balancing, wall following, box
  1546. moving, the discrete pursuer-evader game, the differential pursuer-
  1547. evader game, inverse kinematics for controlling a robot arm,
  1548. emergent collecting behavior, emergent central place foraging, the
  1549. integer randomizer, the one-dimensional cellular automaton
  1550. randomizer, the two-dimensional cellular automaton randomizer,
  1551. task prioritization (Pac Man), programmatic image compression,
  1552. solving numeric equations for a numeric root, optimization of lizard
  1553. foraging, Boolean function learning for the 11-multiplexer, co-
  1554. evolution of game-playing strategies, and hierarchical automatic
  1555. function definition as applied to learning the Boolean even-11-
  1556. parity function.
  1557.  
  1558. - ---------------------------ORDER FORM----------------------
  1559.  
  1560. PHONE: 800-326-4471 TOLL-FREE or 617-625-8569
  1561. MAIL:  The MIT Press, 55 Hayward Street, Cambridge, MA 02142
  1562. FAX:  617-625-9080
  1563.  
  1564. Please send
  1565. ____ copies of the book GENETIC PROGRAMMING: ON THE
  1566. PROGRAMMING OF COMPUTERS BY MEANS OF NATURAL SELECTION by
  1567. John R. Koza (KOZGII) (ISBN 0-262-11170-5) @ $55.00.
  1568. ____ copies of the one-hour videotape GENETIC PROGRAMMING: THE
  1569. MOVIE by John R. Koza and James P. Rice  in VHS NTSC format
  1570. (KOZGVV) (ISBN 0-262-61084-1) @$34.95
  1571. ____ copies of the videotape in PAL format (KOZGPV) (ISBN 0-262-
  1572. 61087-6) @$44.95
  1573. ____ copies of the videotape in SECAM format (KOZGSV) (ISBN 0-
  1574. 262-61088-4) @44.95.
  1575.  
  1576. Name __________________________________
  1577.  
  1578. Address_________________________________
  1579.  
  1580. City____________________________________
  1581.  
  1582. State_________________Zip________________
  1583.  
  1584. Country_________________________________
  1585.  
  1586. Phone Number ___________________________
  1587.  
  1588. $ _______ Total
  1589. $ _______ Shipping and Handling ($3 per item. Outside U.S. and
  1590. Canada, add $6 per item for surface rate or $22 per item for airmail)
  1591. $ _______ Canada - Add 7% GST
  1592. $ _______ Total due MIT Press
  1593.  
  1594. __ Payment attached (check payable to The MIT Press in U.S. funds)
  1595. __ Please charge to my VISA or MASTERCARD credit card
  1596.  
  1597. Number ________________________________
  1598. Credit Card Expires _________________________________
  1599. Signature  ________________________________
  1600.  
  1601.  
  1602.  
  1603.  
  1604. ------------------------------
  1605.  
  1606. From:    Alfred_Nischwitz <alfred@lnt.e-technik.tu-muenchen.de>
  1607. Date:    Wed, 13 Jan 93 14:08:00 +0100
  1608. Subject: Preprint available: On spike synchronization
  1609.  
  1610. The following paper will be published in
  1611. "Brain Theory - Spatio-Temporal Aspects of Brain Function"
  1612. edited by A.Aertzen & W. von Seelen, Elsevier, Amsterdam:
  1613.  
  1614.        ON SPIKE SYNCHRONIZATION
  1615.  
  1616. by  Helmut Gluender       Institut fuer Medizinische Psychologie
  1617.                           Ludwig-Maximilians-Universitaet
  1618.                           Goethestrasse 31, D-8000 Muenchen 2, Germany
  1619.  
  1620. and Alfred Nischwitz      Lehrstuhl fuer Nachrichtentechnik
  1621.                           Technische Universitaet Muenchen
  1622.                           Arcisstrasse 21, D-8000 Muenchen 2, Germany
  1623. ABSTRACT:
  1624.  
  1625.         We start with historically founded reflections on the relevance
  1626. of synchronized activity for the neural processing of information and we
  1627. propose to differentiate between synchrony at the emitting and the
  1628. receiving side. In the main part we introduce model networks which consist
  1629. of chains of locally coupled and noisy spiking neurons. In the case of
  1630. lateral excitation without delay as well as for delayed lateral inhibition
  1631. these basic structures can turn homogeneous stimulations into synchronized
  1632. activity. The synchrony is maintained under temporally varying stimulations
  1633. thus evoking aperiodic spike fronts. Although we present some hypotheses,
  1634. the question of how the nervous system deals with this network property
  1635. remains to be answered.
  1636.  
  1637. Hardcopies of the paper are available. Please send requests via
  1638. email or to the following address in Germany:
  1639.  
  1640.   Alfred Nischwitz
  1641.   Lehrstuhl fuer Nachrichtentechnik
  1642.   Technische Universitaet Muenchen
  1643.   Arcisstrasse 21, D-8000 Muenchen 2, F.R.Germany
  1644.   email: alfred@lnt.e-technik.tu-muenchen.de
  1645.  
  1646. Alfred Nischwitz
  1647.  
  1648.  
  1649. ------------------------------
  1650.  
  1651. From:    Alfred_Nischwitz <alfred@lnt.e-technik.tu-muenchen.de>
  1652. Date:    Tue, 19 Jan 93 10:56:51 +0100
  1653.  
  1654. Subject: Letter available: Spike-Synchronization mechanisms
  1655. From:    Alfred_Nischwitz <alfred@lnt.e-technik.tu-muenchen.de>
  1656. Date:    Tue, 19 Jan. 93
  1657.  
  1658. The following short letter is published in the
  1659. german issue of scientific american (in german language):
  1660.  
  1661.              SPIKE-SYNCHRONISATIONS MECHANISMEN
  1662.  
  1663. by  Alfred Nischwitz      Lehrstuhl fuer Nachrichtentechnik
  1664.                           Technische Universitaet Muenchen
  1665.                           Arcisstrasse 21, D-8000 Muenchen 2, Germany
  1666. and
  1667.     Helmut Gluender       Institut fuer Medizinische Psychologie
  1668.                           Ludwig-Maximilians-Universitaet
  1669.                           Goethestrasse 31, D-8000 Muenchen 2, Germany
  1670. ABSTRACT:
  1671.  
  1672. Anhand von Zeichnungen werden Synchronisations- und
  1673. Desynchronisations-mechanismen fuer inhibitorisch
  1674. und exzitatorisch gekoppelte 'leaky integrate and fire'
  1675. Modell-Neurone erklaert.
  1676.  
  1677. Hardcopies of the paper are available. Please send requests via
  1678. email or to the following address in Germany:
  1679.  
  1680.   Alfred Nischwitz
  1681.   Lehrstuhl fuer Nachrichtentechnik
  1682.   Technische Universitaet Muenchen
  1683.   Arcisstrasse 21, D-8000 Muenchen 2, F.R.Germany
  1684.   email: alfred@lnt.e-technik.tu-muenchen.de
  1685.  
  1686. Alfred Nischwitz
  1687.  
  1688.  
  1689. ------------------------------
  1690.  
  1691. Subject: Preprint: Computational Models of the Neural Bases of Learning and
  1692.  Memory
  1693. From:    Mark Gluck <gluck@pavlov.rutgers.edu>
  1694. Date:    Wed, 03 Feb 93 09:13:20 -0500
  1695.  
  1696.  
  1697. For (hard copy) preprints of the following article:
  1698.  
  1699.  
  1700.   Gluck, M. A. & Granger, R. C. (1993). Computational models of the neural
  1701.      bases of learning and memory. Annual Review of Neuroscience. 16: 667-706
  1702.  
  1703. ABSTRACT: Advances in computational analyses of parallel-processing have
  1704. made computer simulation of learning systems an increasingly useful tool
  1705. in understanding complex aggregate functional effects of changes in
  1706. neural systems.  In this article, we review current efforts to develop
  1707. computational models of the neural bases of learning and memory, with a
  1708. focus on the behavioral implications of network-level characterizations
  1709. of synaptic change in three anatomical regions: olfactory (piriform)
  1710. cortex, cerebellum, and the hippocampal formation.
  1711.  
  1712.                      ____________________________________
  1713.  
  1714. Send US-mail address to: Mark Gluck (Center for Neuroscience, Rutgers-Newark)
  1715.                          gluck@pavlov.rutgers.edu
  1716.  
  1717.  
  1718.  
  1719. ------------------------------
  1720.  
  1721. Subject: paper available - the Ghost in the Machine
  1722. From:    Andrew Wuensche <100020.2727@CompuServe.COM>
  1723. Date:    03 Jun 93 11:38:43 -0500
  1724.  
  1725. The Ghost in the Machine
  1726. ========================
  1727. Cognitive Science Research Paper 281, University of Sussex.
  1728.  
  1729. The following paper describes recent work on the basins of attraction of
  1730. random Boolean networks, and implications on memory and learning.
  1731. Currently only hard-copies are available. To request a copy, email
  1732.  
  1733. andywu@cogs.susx.ac.uk, or write to
  1734.  
  1735. Andy Wuensche, 48 Esmond Road, London W4 1JQ, UK
  1736. giving a surface mail address.
  1737.  
  1738.  
  1739. A B S T R A C T
  1740. - ---------------
  1741. The Ghost in the Machine
  1742. Basins of Attraction of Random Boolean Networks
  1743.  
  1744. This paper examines the basins of attraction of random Boolean networks,
  1745. a very general class of discrete dynamical systems, in which cellular
  1746. automata (CA) form a special sub-class. A reverse algorithm is presented
  1747. which directly computes the set of pre-images (if any) of a network's
  1748. state. Computation is many orders of magnitude faster than exhaustive
  1749. testing, making the detailed structure of random network basins of
  1750. attraction readily accessible for the first time. They are portrayed as
  1751. diagrams that connect up the network's global states according to their
  1752. transitions. Typically, the topology is branching trees rooted on
  1753. attractor cycles.
  1754.    The homogeneous connectivity and rules of CA are necessary for the
  1755. emergence of coherent space-time structures such as gliders, the basis of
  1756. CA models of artificial life. On the other hand random Boolean networks
  1757. have a vastly greater parameter/basin field configuration space capable
  1758. of emergent categorisation.
  1759.    I argue that the basin of attraction field constitutes the network's
  1760. memory; but not simply because separate attractors categorise state space
  1761. - - in addition, within each basin, sub-categories of state space are
  1762. categorised along transient trees far from equilibrium, creating a
  1763. complex hierarchy of content addressable memory. This may answer a basic
  1764. difficulty in explaining memory by attractors in biological networks
  1765. where transient lengths are probably astronomical.
  1766.    I describe a single step learning algorithm for re-assigning
  1767. pre-images in random Boolean networks. This allows the sculpting of their
  1768. basin of attraction fields to approach any desired configuration. The
  1769. process of learning and its side effects are made visible. In the context
  1770. of many semi-autonomous weakly coupled networks, the basin field/network
  1771. relationship may provide a fruitful metaphor for the mind/brain.
  1772.  
  1773.  
  1774.  
  1775.  
  1776.  
  1777. ------------------------------
  1778.  
  1779. Subject: thesis available
  1780. From:    "Egbert J.W. Boers" <boers@WI.leidenuniv.nl>
  1781. Date:    Thu, 01 Jul 93 15:41:41 +0100
  1782.  
  1783.  
  1784. FTP-host: archive.cis.ohio-state.edu
  1785. FTP-filename: /pub/neuroprose/boers.biological-metaphors.ps.Z
  1786.  
  1787. The file boers.biological-metaphors.ps.Z (104 pages) is now available for
  1788. copying from the Neuroprose repository:
  1789.  
  1790. Biological metaphors
  1791. and the design of modular
  1792. artificial neural networks
  1793.  
  1794. Egbert J.W. Boers, Herman Kuiper
  1795. Leiden University
  1796. The Netherlands
  1797.  
  1798. ABSTRACT: In this thesis, a method is proposed with which good modular
  1799. artificial neural network structures can be found automatically using a
  1800. computer program. A number of biological metaphors are incorporated in
  1801. the method. It will be argued that modular artificial neural networks
  1802. have a better performance than their non-modular counterparts. The human
  1803. brain can also be seen as a modular neural network, and the proposed
  1804. search method is based on the natural process that resulted in the brain:
  1805. Genetic algorithms are used to imitate evolution, and L-systems are used
  1806. to model the kind of recipes nature uses in biological growth.
  1807.  
  1808. A small number of experiments have been done to investigate the
  1809. possibilities of the method. Preliminary results show that the method
  1810. does find modular networks, and that those networks outperform 'standard'
  1811. solutions. The method looks very promising, although the experiments
  1812. done were too limited to draw any general conclusions. One drawback is
  1813. the large amount of computing time needed to evaluate the quality of a
  1814. population member, and therefore in chapter 9 a number of possible
  1815. improvements are given on how to increase the speed of the method, as
  1816. well as a number of suggestions on how to continue from here.
  1817.  
  1818.  
  1819.  
  1820. Unfortunately, I'm not in the position to distribute paper-copies of this
  1821. thesis. Questions and remarks are most welcome.
  1822.  
  1823.  
  1824. Egbert Boers
  1825. Leiden University
  1826. The Netherlands
  1827. boers@wi.LeidenUniv.nl
  1828.  
  1829.  
  1830. ------------------------------
  1831.  
  1832. Subject: PhD dissertation available
  1833. From:    SCHOLTES@ALF.LET.UVA.NL
  1834. Date:    Mon, 08 Feb 93 11:36:00 +0700
  1835.  
  1836. ===================================================================
  1837.  
  1838.                 Ph.D. DISSERTATION AVAILABLE
  1839.  
  1840.                            on
  1841.  
  1842. Neural Networks, Natural Language Processing, Information Retrieval
  1843.  
  1844. ===================================================================
  1845.  
  1846. A Copy of the dissertation "Neural Networks in Natural Language Processing
  1847. and Information Retrieval" by Johannes C. Scholtes can be obtained for
  1848. cost price and fast airmail- delivery at US$ 25,-.
  1849.  
  1850. Payment by Major Creditcards (VISA, AMEX, MC, Diners) is accepted and
  1851. encouraged. Please include Name on Card, Number and Exp. Date. Your Credit
  1852. card will be charged for Dfl. 47,50.
  1853.  
  1854. Within Europe one can also send a Euro-Cheque for Dfl. 47,50 to:
  1855.  
  1856.     University of Amsterdam
  1857.     J.C. Scholtes
  1858.     Dufaystraat 1
  1859.     1075 GR Amsterdam
  1860.     The Netherlands
  1861.  
  1862. Do not forget to mention a surface shipping address. Please allow 2-4
  1863. weeks for delivery.
  1864.  
  1865.  
  1866.                             Abstract
  1867.  
  1868. 1.0  Machine Intelligence
  1869.  
  1870. For over fifty years the two main directions in machine intelligence
  1871. (MI), neural networks (NN) and artificial intelligence (AI), have been
  1872. studied by various persons with many dif-ferent backgrounds. NN and AI
  1873. seemed to conflict with many of the traditional sciences as well as with
  1874. each other. The lack of a long research history and well defined
  1875. foundations has always been an obstacle for the general acceptance of
  1876. machine intelligence by other fields.
  1877.  
  1878. At the same time, traditional schools of science such as mathematics and
  1879. physics devel-oped their own tradition of new or "intelligent"
  1880. algorithms. Progress made in the field of statistical reestimation
  1881. techniques such as the Hidden Markov Models (HMM) started a new phase in
  1882. speech recognition. Another application of the progress of mathematics
  1883. can be found in the application of the Kalman filter in the
  1884. interpretation of sonar and radar signals. Much more examples of such
  1885. "intelligent" algorithms can be found in the statistical classification
  1886. en filtering techniques of the study of pattern recognition (PR).
  1887.  
  1888.  
  1889. Here, the field of neural networks is studied with that of pattern
  1890. recognition in mind.  Although only global qualitative comparisons are
  1891. made, the importance of the relation between them is not to be
  1892. underestimated. In addition it is argued that neural networks do indeed
  1893. add something to the fields of MI and PR, instead of competing or
  1894. conflicting with them.
  1895.  
  1896. 2.0  Natural Language Processing
  1897.  
  1898. The study of natural language processing (NLP) exists even longer than
  1899. that of MI.  Already in the beginning of this century people tried to
  1900. analyse human language with machines. However, serious efforts had to
  1901. wait until the development of the digital com- puter in the 1940s, and
  1902. even then, the possibilities were limited. For over 40 years, sym- bolic
  1903. AI has been the most important approach in the study of NLP. That this
  1904. has not always been the case, may be concluded from the early work on NLP
  1905. by Harris. As a mat-ter of fact, Chomsky's Syntactic Structures was an
  1906. attack on the lack of structural proper- ties in the mathematical methods
  1907. used in those days. But, as the latter's work remained the standard in
  1908. NLP, the former has been forgotten completely until recently. As the
  1909. scientific community in NLP devoted all its attention to the symbolic
  1910. AI-like theories, the only use-ful practical implementation of NLP
  1911. systems were those that were based on statistics rather than on
  1912. linguistics. As a result, more and more scientists are redirecting their
  1913. atten- tion towards the statistical techniques available in NLP. The
  1914. field of connectionist NLP can be considered as a special case of these
  1915. mathematical methods in NLP.
  1916.  
  1917. More than one reason can be given to explain this turn in approach. On
  1918. the one hand, many problems in NLP have never been addressed properly by
  1919. symbolic AI. Some exam- ples are robust behavior in noisy environments,
  1920. disambiguation driven by different kinds of knowledge, commensense
  1921. generalizations, and learning (or training) abilities.
  1922.     On the other hand, mathematical methods have become much stronger and
  1923. more sensitive to spe-cific properties of language such as hierarchical
  1924. structures.
  1925.  
  1926. Last but not least, the relatively high degree of success of mathematical
  1927. techniques in commercial NLP systems might have set the trend towards the
  1928. implementation of simple, but straightforward algorithms.
  1929.  
  1930. In this study, the implementation of hierarchical structures and
  1931. semantical features in mathematical objects such as vectors and matrices
  1932. is given much attention. These vectors can then be used in models such as
  1933. neural networks, but also in sequential statistical pro- cedures
  1934. implementing similar characteristics.
  1935.  
  1936. 3.0  Information Retrieval
  1937.  
  1938. The study of information retrieval (IR) was traditionally related to
  1939. libraries on the one hand and military applications on the other.
  1940. However, as PC's grew more popular, most common users loose track of the
  1941. data they produced over the last couple of years. This, together with the
  1942. introduction of various "small platform" computer programs made the field
  1943. of IR relevant to ordinary users.
  1944.  
  1945. However, most of these systems still use techniques that have been
  1946. developed over thirty years ago and that implement nothing more than a
  1947. global surface analysis of the textual (layout) properties. No deep
  1948. structure whatsoever, is incorporated in the decision whether or not to
  1949. retrieve a text.
  1950.  
  1951. There is one large dilemma in IR research. On the one hand, the data
  1952. collections are so incredibly large, that any method other than a global
  1953. surface analysis would fail. On the other hand, such a global analysis
  1954. could never implement a contextually sensitive method to restrict the
  1955. number of possible candidates returned by the retrieval system.
  1956.    As a result, all methods that use some linguistic knowledge exist only
  1957. in laboratories and not in the real world. Conversely, all methods that
  1958. are used in the real world are based on technological achievements from
  1959. twenty to thirty years ago.
  1960.  
  1961. Therefore, the field of information retrieval would be greatly indebted
  1962. to a method that could incorporate more context without slowing down. As
  1963. computers are only capable of processing numbers within reasonable time
  1964. limits, such a method should be basedon vec- tors of numbers rather than
  1965. on symbol manipulations. This is exactly where the challenge is: on the
  1966. one hand keep up the speed, and on the other hand incorporate more
  1967. context. If possible, the data representation of the contextual
  1968. information must not be restricted to a single type of media. It should
  1969. be possible to incorporate symbolic language as well as sound, pictures
  1970. and video concurrently in the retrieval phase, although one does not know
  1971. exactly how yet...
  1972.  
  1973. Here, the emphasis is more on real-time filtering of large amounts of
  1974. dynamic data than on document retrieval from large (static) data bases.
  1975. By incorporating more contextual infor- mation, it should be possible to
  1976. implement a model that can process large amounts of unstructured text
  1977. without providing the end-user with an overkill of information.
  1978.  
  1979. 4.0  The Combination
  1980.  
  1981. As this study is a very multi-disciplinary one, the risk exists that it
  1982. remainsrestricted to a surface discussion of many different problems
  1983. without analyzing one in depth. To avoid this, some central themes,
  1984. applications and tools are chosen. The themes in this work are
  1985. self-organization, distributed data representations and context. The
  1986. applications are NLP and IR, the tools are (variants of) Kohonen feature
  1987. maps, a well known model from neural network research.
  1988.  
  1989. Self-organization and context are more related to each other than one may
  1990. suspect. First, without the proper natural context, self-organization
  1991. shall not be possible. Next, self-organization enables one to discover
  1992. contextual relations that were not known before.
  1993.  
  1994. Distributed data representation may solve many of the unsolved problems
  1995. in NLP and IR by introducing a powerful and efficient knowledge
  1996. integration and generalization tool. However, distributed data
  1997. representation and self-organization trigger new problems that should be
  1998. solved in an elegant manner.
  1999.  
  2000. Both NLP and IR work on symbolic language. Both have properties in common
  2001. but both focus on different features of language. In NLP hierarchical
  2002. structures and semantical fea- tures are important. In IR the amount of
  2003. data sets the limitations of the methods used. However, as computers grow
  2004. more powerful and the data sets get larger and larger, both approaches
  2005. get more and more common ground. By using the same models on both
  2006. applications, a better understanding of both may be obtained.
  2007.  
  2008. Both neural networks and statistics would be able to implement
  2009. self-organization, distrib- uted data and context in the same manner. In
  2010. this thesis, the emphasis is on Kohonen fea- ture maps rather than on
  2011. statistics. However, it may be possible to implement many of the
  2012. techniques used with regular sequential mathematical algorithms.
  2013.  
  2014. So, the true aim of this work can be formulated as the understanding of
  2015. self-organization, distributed data representation, and context in NLP
  2016. and IR, by in depth analysis of Kohonen feature maps.
  2017.  
  2018. ------------------------------
  2019.  
  2020. End of Neuron Digest [Volume 11 Issue 44]
  2021. *****************************************
  2022. Received: from BUACCA by BUACCA.BU.EDU (Mailer R2.08 PTF009) with BSMTP id
  2023.  1703; Fri, 16 Jul 93 20:11:27 EDT
  2024. Received: from noc4.dccs.upenn.edu by BUACCA.BU.EDU (IBM VM SMTP R1.2.1) with
  2025.  TCP; Fri, 16 Jul 93 20:11:19 EDT
  2026. Received: from CATTELL.PSYCH.UPENN.EDU by noc4.dccs.upenn.edu
  2027.     id AA02595; Fri, 16 Jul 93 20:08:43 -0400
  2028. Return-Path: <marvit@cattell.psych.upenn.edu>
  2029. Received: from LOCALHOST by cattell.psych.upenn.edu
  2030.     id AA07147; Fri, 16 Jul 93 18:58:38 EDT
  2031. Posted-Date: Fri, 16 Jul 93 18:57:57 -0400
  2032. From: "Neuron-Digest Moderator" <neuron-request@cattell.psych.upenn.edu>
  2033. To: Neuron-Distribution:;
  2034. Subject: Neuron Digest V11 #45 (Papers, jobs, school, and neuro)
  2035. Reply-To: "Neuron-Request" <neuron-request@cattell.psych.upenn.edu>
  2036. X-Errors-To: "Neuron-Request" <neuron-request@cattell.psych.upenn.edu>
  2037. Organization: University of Pennsylvania
  2038. Date: Fri, 16 Jul 93 18:57:57 -0400
  2039. Message-Id: <7112.742863477@cattell.psych.upenn.edu>
  2040. Sender: marvit@cattell.psych.upenn.edu
  2041.  
  2042. Neuron Digest   Friday, 16 Jul 1993
  2043.                 Volume 11 : Issue 45
  2044.  
  2045. Today's Topics:
  2046.                Administrivia - ND on holiday for two weeks
  2047.           Neuroprose entry - extracting and learning "grammar"
  2048.                       Paper available in Neuroprose
  2049.                       TR - Models of Reading aloud
  2050. SUMMARY: From neurobiological to computational models - State of the art?
  2051.             Re: SUMMARY: From neurobiological to computation
  2052.                      Post-doc in Neurophysiology...
  2053.                        PostDoc positions in Korea
  2054.                    Cambridge Neural Nets Summer School
  2055.                     POSITION AVAILABLE - STATISTICIAN
  2056.                 Research Opportunities in Neural Networks
  2057.  
  2058.  
  2059. Send submissions, questions, address maintenance, and requests for old
  2060. issues to "neuron-request@cattell.psych.upenn.edu". The ftp archives are
  2061. available from cattell.psych.upenn.edu (130.91.68.31). Back issues
  2062. requested by mail will eventually be sent, but may take a while.
  2063.  
  2064. ----------------------------------------------------------------------
  2065.  
  2066. Subject: Administrivia - ND on holiday for two weeks
  2067. From:    "Neuron-Digest Moderator, Peter Marvit"
  2068.  <neuron@cattell.psych.upenn.edu>
  2069. Date:    Fri, 16 Jul 93 18:44:01 -0500
  2070.  
  2071. Dear readers,
  2072.  
  2073. Due to a last minute change of plans, Neuron Digest will go on holiday
  2074. for the next two weeks (a little earlier and longer than I had planned).
  2075. I will return on August 3, so do not get worried if you do not hear from
  2076. me until later during that first week in August.
  2077.  
  2078. Thanks to all, as always, for your continued readership and support.
  2079. Apologies to contributors who must wait.
  2080.  
  2081.         -Peter
  2082.  
  2083. : Peter Marvit, Neuron Digest Moderator                                    :
  2084. : Email: <neuron-request@cattell.psych.upenn.edu>                          :
  2085. : Courtesy of the Psychology Department,  University of Pennsylvania       :
  2086. : 3815 Walnut St., Philadelphia, PA  19104  w:215/898-6274  h:215/387-6433 :
  2087.  
  2088.  
  2089. ------------------------------
  2090.  
  2091. Subject: Neuroprose entry - extracting and learning "grammar"
  2092. From:    giles@research.nj.nec.com (Lee Giles)
  2093. Date:    Tue, 18 Feb 92 13:49:26 -0500
  2094.  
  2095. [[ Editor's Note: Personal apologies to Lee for the slight (!) delay. -PM ]]
  2096.  
  2097. The following paper has been placed in the Neuroprose archive.
  2098. Comments and questions are invited.
  2099.  
  2100. *******************************************************************
  2101.  
  2102.          --------------------------------------------
  2103.          EXTRACTING AND LEARNING AN "UNKNOWN" GRAMMAR
  2104.               WITH RECURRENT NEURAL NETWORKS
  2105.          --------------------------------------------
  2106.  
  2107.  
  2108.  
  2109. C.L.Giles*, C.B.Miller     D.Chen, G.Z.Sun, H.H.Chen, Y.C.Lee
  2110. NEC Research Institute     *Institute for Advanced Computer Studies
  2111. 4 Independence Way         Dept. of Physics & Astronomy
  2112. Princeton, N.J. 08540      University of Maryland
  2113. giles@research.nj.nec.com  College Park, Md 20742
  2114. ___________________________________________________________________
  2115. - -------------------------------------------------------------------
  2116.  
  2117.  
  2118.  
  2119.                          Abstract
  2120.                          --------
  2121.  
  2122. Simple second-order recurrent networks are shown to readily
  2123. learn small known regular grammars when trained with positive
  2124. and negative strings examples. We show that similar methods
  2125. are appropriate for learning "unknown" grammars from examples
  2126. of their strings. The training algorithm is an incremental real-
  2127. time, recurrent learning (RTRL) method that computes the
  2128. complete gradient and updates the weights at the end of each
  2129. string. After or during training, a dynamic clustering algorithm
  2130. extracts the production rules that the neural network has
  2131. learned. The methods are illustrated by extracting rules from
  2132. unknown deterministic regular grammars. For many cases the
  2133. extracted grammar outperforms the neural net from which it
  2134. was extracted in correctly classifying unseen strings.
  2135.  
  2136.  
  2137. (To be published in Advances in Neural Information Processing
  2138. Systems 4, J.E. Moody, S.J. Hanson and R.P. Lippmann (eds.)
  2139. Morgan Kaufmann, San Mateo, Ca 1992).
  2140.  
  2141. ********************************************************************
  2142.  
  2143.  
  2144. Filename: giles.nips91.ps.Z
  2145.  
  2146. - ----------------------------------------------------------------
  2147. FTP INSTRUCTIONS
  2148.  
  2149.      unix% ftp archive.cis.ohio-state.edu (or 128.146.8.52)
  2150.      Name: anonymous
  2151.      Password: anything
  2152.      ftp> cd pub/neuroprose
  2153.      ftp> binary
  2154.      ftp> get giles.nips91.ps.Z
  2155.      ftp> bye
  2156.      unix% zcat giles.nips91.ps.Z | lpr
  2157. (or whatever *you* do to print a compressed PostScript file)
  2158. - ----------------------------------------------------------------
  2159.  
  2160. ^^^^^^^^^^^^^^^^^^^^^^^cut here^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
  2161.  
  2162.                                   C. Lee Giles
  2163.                                   NEC Research Institute
  2164.                                   4 Independence Way
  2165.                                   Princeton, NJ 08540
  2166.                                   USA
  2167.  
  2168. Internet:   giles@research.nj.nec.com
  2169.     UUCP:   princeton!nec!giles
  2170.    PHONE:   (609) 951-2642
  2171.      FAX:   (609) 951-2482
  2172.  
  2173.  
  2174.  
  2175.  
  2176. ------------------------------
  2177.  
  2178. Subject: Paper available in Neuroprose
  2179. From:    arun@hertz.njit.edu (arun maskara spec lec cis)
  2180. Date:    Mon, 16 Mar 92 13:46:08 -0500
  2181.  
  2182.  
  2183. The following paper is now available by ftp from neuroprose archive:
  2184.  
  2185.  
  2186.         Forcing Simple Recurrent Neural Networks to Encode Context
  2187.  
  2188.         Arun Maskara, New Jersey Institute of Technology,
  2189.         Department of Computer and Information Sciences
  2190.         University Heights, Newark, NJ 07102, arun@hertz.njit.edu
  2191.  
  2192.         Andrew Noetzel, The William Paterson College,
  2193.         Department of Computer Science, Wayne, NJ 07470
  2194.  
  2195.                         Abstract
  2196.  
  2197. The Simple Recurrent Network (SRN) is a neural network model that has been
  2198. designed for the recognition of symbol sequences. It is a back-propagation
  2199. network with a single hidden layer of units. The symbols of a sequence are
  2200. presented one at a time at the input layer. But the activation pattern in
  2201. the hidden units during the previous input symbol is also presented as an
  2202. auxiliary input. In previous research, it has been shown that the SRN
  2203. can be trained to behave as a finite state automaton (FSA) which accepts the
  2204. valid strings corresponding to a particular grammar and rejects the invalid
  2205. strings. It does this by predicting each successive symbol in the input string.
  2206.  
  2207. However, the SRN architecture sometime fails to encode the context necessary to
  2208. predict the next input symbol. This happens when two different states in the FSA
  2209. generating the strings have the same output, and the SRN develops similar hidden
  2210. layer encodings for these states. The failure happens more often when number of
  2211. units in the hidden layer is limited. We have developed a new architecture,
  2212. called the Forced Simple Recurrent Network (FSRN), that solves this problem.
  2213. This architecture contains additional output units, which are trained to show
  2214. the current input and the previous context. Simulation results show that for
  2215. certain classes of FSA with $u$ states, the SRN with $\lceil \log_2u \rceil$
  2216. units in the hidden layers fails, where as the FSRN with the same number of
  2217. hidden layer units succeeds.
  2218.  
  2219. - ------------------------------------------------------------------------------
  2220. -
  2221.  
  2222. Copy of the postscript file has been placed in neuroprose archive. The
  2223. file name is maskara.fsrn.ps.Z
  2224.  
  2225. The usual instructions can be followed to obtain the file from the
  2226. directory pub/neuroprose from the ftp site archive.cis.ohio-state.edu
  2227.  
  2228. Arun Maskara
  2229.  
  2230.  
  2231. ------------------------------
  2232.  
  2233. Subject: TR - Models of Reading aloud
  2234. From:    Max Coltheart <mcolthea@laurel.ocs.mq.edu.au>
  2235. Date:    Tue, 24 Mar 92 08:20:24 +1000
  2236.  
  2237. Models Of Reading Aloud: Dual-Route And Parallel-Distributed-Processing
  2238. Approaches
  2239.  
  2240.  
  2241. Max Coltheart, Brent Curtis and Paul Atkins
  2242. School of Behavioural Sciences
  2243. Macquarie University
  2244. Sydney NSW 2109
  2245. Australia
  2246.  
  2247. email: max@currawong.mqcc.mq.oz.au
  2248.  
  2249. Submitted for publication March 23, 1992.
  2250.  
  2251. Abstract
  2252.  
  2253. It has often been argued that various facts about skilled reading aloud cannot
  2254. be explained by any model unless that model possesses a dual-route
  2255. architecture: one route from print to speech that may be described as lexical
  2256. (in the sense that it operates by retrieving pronunciations from a mental
  2257. lexicon) and another route from print to speech that may be described as
  2258. non-lexical (in the sense that it computes pronunciations by rule, rather
  2259. than by retrieving them from a lexicon). This broad claim has been challenged
  2260. by Seidenberg and McClelland (1989, 1990). Their model has but a single route
  2261. from print to speech, yet, they contend, it can account for major facts about
  2262. reading which have hitherto been claimed to require a dual-route architecture.
  2263.  
  2264. We identify six of these major facts about reading. The one-route model
  2265. proposed by Seidenberg and McClelland can account for the first of these, but
  2266. not the remaining five: how people read nonwords aloud, how they perform
  2267. visual lexical decision, how two particular forms of acquired dyslexia can
  2268. arise, and how different patterns of developmental dyslexia can arise.
  2269. Since models with dual-route architectures can  explain all six of these
  2270. basic facts about reading, we suggest that this remains the viable
  2271. architecture for any tenable model of skilled reading and learning to read.
  2272.  
  2273.  
  2274. Preprints available from MC at the above address.
  2275.  
  2276.  
  2277. ------------------------------
  2278.  
  2279. Subject: SUMMARY: From neurobiological to computational models - State of the
  2280.  art?
  2281. From:    massimo@cui.unige.ch (DEFRANCESCO Massimo)
  2282. Organization: University of Geneva, Switzerland
  2283. Date:    04 Jul 93 08:25:03 +0000
  2284.  
  2285. [[ Editor's Note: This is from the Neuroscience mailing list. -PM ]]
  2286.  
  2287. A couple of weeks ago I posted a request on the net for the state
  2288. of the art in neuromodelling, with emphasis on the computational side.
  2289. I received 13 answers, 4 of which were asking for the summary.
  2290.  
  2291. Many thanks to the following people (hope I forgot nobody):
  2292.  
  2293. Richard E. Myers (rmyers@ics.uci.edu)
  2294. Jacques Brisson (X042@hec.ca)
  2295. Christoph Ian Connoly (connoly@cs.umass.edu)
  2296. Prashanth Kumar (akp@cns.nyu.edu)
  2297. Tobias Fabio Christen (tchriste@iiic.ethz.ch)
  2298. Joern Erbguth (jnerbgut@cip.informatik.uni-erlangen.de)
  2299. Drago IndJic (d.indjic@ic.ac.uk)
  2300. Thomas P. Vogl (vogl@helix.nih.gov)
  2301. German Cavelier (cavelier@smaug.cns.caltech.edu)
  2302.  
  2303.  
  2304. ======================
  2305. Original question:
  2306.  
  2307. >I need your precious help to find out what is the state of the art
  2308. >in neuromodelling of the human brain AND derivation from the neurological
  2309. >model of "practical", computer-oriented, artificial neural network
  2310. >models.  We are going to start a research that will a) study the
  2311. >behaviour of real neurons at the neurophysiological level, b) develop
  2312. >a theoretical (biological) model able to explain the observations,
  2313. >and c) develop from it an artificial neural network (ANN) model usable in
  2314. >practical applications.
  2315. >We are aware of at least one ANN model which was heavily derived from
  2316. >neurophysiological investigations of neurons in the hyppocampus, i-e. the
  2317. >Dystal model (Alkon et al).
  2318.  
  2319. >We are heavily interested in references/pointers to any work of this kind.
  2320. >Email is preferred because faster. Feel free to post anyway.
  2321. >I will compile a summary of the answers that I'll receive privately.
  2322.  
  2323.  
  2324. =======================
  2325.  
  2326.  
  2327. Richard E. Myers recommends to look at the work of Gary Lynch and Richard
  2328. Granger. References included:
  2329.  
  2330.  
  2331.   1. Gluck MA; Granger R.
  2332.        Computational models of the neural bases of learning and memory.
  2333.      Annual Review of Neuroscience, 1993, 16:667-706.
  2334.        (UI:  93213082)
  2335.        Pub type:  Journal Article; Review; Review, Academic.
  2336.  
  2337.   2. Ambros-Ingerson J; Granger R; Lynch G.
  2338.        Simulation of paleocortex performs hierarchical clustering.
  2339.      Science, 1990 Mar 16, 247(4948):1344-8.
  2340.        ABSTRACT available.  (UI:  90193697)
  2341.  
  2342.   3. Granger R; Lynch G.
  2343.        Higher olfactory processes: perceptual learning and memory.
  2344.      Current Opinion in Neurobiology, 1991 Aug, 1(2):209-14.
  2345.        ABSTRACT available.  (UI:  92330264)
  2346.        Pub type:  Journal Article; Review; Review, Tutorial.
  2347.  
  2348.   4. Anton PS; Lynch G; Granger R.
  2349.        Computation of frequency-to-spatial transform by olfactory bulb
  2350.  glomeruli.
  2351.      Biological Cybernetics, 1991, 65(5):407-14.
  2352.        ABSTRACT available.  (UI:  92075782)
  2353.  
  2354.  
  2355. =============================
  2356.  
  2357.  
  2358. Jacques Brisson (X042@hec.ca) suggests to get a hand on the november
  2359. 1992 issue of Trends In the Neuroscience. It is a special edition on
  2360. Nervous System Modelization. [thanks Jacques, we did]
  2361.  
  2362.  
  2363. =============================
  2364.  
  2365.  
  2366. Christopher Ian Connolly (connoly@cs.umass.edu) suggests the following
  2367. article:
  2368.  
  2369.    Connolly CI, Burns JB, "A Model for the Functioning of the Striatum",
  2370.    Biological Cybernetics 68(6):535-544.
  2371.  
  2372.    It discusses a method for robot control and a plausible correlate in
  2373.    networks of medium spiny cells ("matrisomes") of the striatum.
  2374.  
  2375.  
  2376. =============================
  2377.  
  2378.  
  2379. Prashanth Kumar A.K. (akp@cns.nyu.edu) writes:
  2380.  
  2381.    work of Ken miller might be of interest to you (E-Mail: ken@caltech.edu)
  2382.    he worked with mike stryker and developed models for development of ODC
  2383.    and now for orientation selectivity.
  2384.  
  2385.  
  2386. =============================
  2387.  
  2388.  
  2389. Drago Indjic (d.indjic@ic.ac.uk) suggests to take a look at Kryukov et al
  2390. work described in a few books by Manchester University Press 1990:
  2391. Attention and neural networks and Stochastic Cellular Systems.
  2392.  
  2393.    Kryukov is continuing Ukhtomsky work (Pavlov reflex
  2394.    school competitor)and is based on many decades of
  2395.    experimental work.
  2396.  
  2397.  
  2398. =============================
  2399.  
  2400.  
  2401. Thomas P. Vogl (vogl@helix.nih.gov) writes:
  2402.  
  2403.    look at the paper by Blackwell et al in the July '92 issue of "Pattern
  2404.    Recognition" ;  also the paper by Werness et al (particularly some of the
  2405.    references therein) in the December '92 issue of "Biological Cybernetics"
  2406.  
  2407.  
  2408. =============================
  2409.  
  2410.  
  2411. German Cavelier (cavelier@smaug.cns.caltech.edu) suggests to ask info
  2412. about GENESIS to David Bilitch (dhb@smaug.cns.caltech.edu).
  2413.  
  2414.  
  2415. ============================
  2416.  
  2417.  
  2418. Joern Erbguth sent to me a very interesting and long summary he posted
  2419. some days before my request on neuromodelling. Since his summary has been
  2420. already posted to bionet.neuroscience, I won't include it here (but will
  2421. include it in my summary for comp.ai.neural-nets)
  2422.  
  2423.  
  2424. =============================
  2425.  
  2426.  
  2427. That's all. Thanks again for your help. The net is a real pleasure.
  2428.  
  2429. Massimo
  2430.  
  2431.  
  2432. _______________________________________________________________________
  2433. Massimo de Francesco            email: massimo@cui.unige.ch
  2434. Research assistant
  2435. Computer Science Center
  2436. University of Geneva
  2437. Switzerland
  2438.  
  2439. ------------------------------
  2440.  
  2441. Subject: Re: SUMMARY: From neurobiological to computation
  2442. From:    massimo@cui.unige.ch (DEFRANCESCO Massimo)
  2443. Organization: University of Geneva, Switzerland
  2444. Date:    04 Jul 93 08:43:49 +0000
  2445.  
  2446. In article 28366@news.unige.ch,  massimo@cui.unige.ch (DEFRANCESCO Massimo)
  2447.  writes:
  2448. >
  2449. >A couple of weeks ago I posted a request on the net for the state
  2450. >of the art in neuromodelling, with emphasis on the computational side.
  2451. >I received 13 answers, 4 of which were asking for the summary.
  2452. >
  2453. >Many thanks to the following people (hope I forgot nobody):
  2454. >
  2455.  
  2456. Well, I did. Here is the reply of Tobias Fabio Christen (tchriste@iiic.ethz.ch):
  2457.  
  2458.  
  2459.   We are a team at Ciba SA in Basel that has members of the biological
  2460.   side the electrical side and me as a computer scientist, due to
  2461.   connections of my boss (Thomas Knoepfel) we have contact and pers.
  2462.   comm. with people from the EPFZ (department for theoretical physics)
  2463.   and the Brain Research Center at the UNI ZH. At the moment we are
  2464.   working around a simulation for presynaptic modulation via auto- and
  2465.   heteroreceptors (though we are still way apart from the definite
  2466.   model).
  2467.  
  2468.   Depending on whether you want a purely electrophysiological model or
  2469.   whether you want to bring in some biochemical aspects (specially for
  2470.   synaptical
  2471.  
  2472.   transmission and second messenger gadgets), you do need different
  2473.   approaches and literature (where as these two worlds seem to avoid each
  2474.   other).
  2475.  
  2476.   For the former case a good introduction to the evolution
  2477.   biological->technical net is:
  2478.  
  2479.   1
  2480.   AU  - Koch C
  2481.   AU  - Segev I
  2482.   TI  - Methods in Neuronal Modeling
  2483.   ED  - Koch C
  2484.   ED  - Segev I
  2485.   BK  -
  2486.   SO  - MIT Press ,Cambridge, MA 1989;1:0-0
  2487.  
  2488.   2
  2489.   AU  - Traub RD
  2490.   AU  - Miles R
  2491.   TI  - Neuronal Networks of the Hippocampus
  2492.   ED  - Traub RD
  2493.   ED  - Miles R
  2494.   BK  -
  2495.   SO  - Cambridge University Press ,New York 1991;1:0-0
  2496.  
  2497.  
  2498.   The biochemical side has little or nothing done in generalizing models
  2499.   there is only little literature available (if you need it fell free to
  2500.   contact me)
  2501.  
  2502.   toby
  2503.  
  2504.  
  2505. Thanks again!
  2506.  
  2507. Massimo
  2508.  
  2509. ------------------------------
  2510.  
  2511. Subject: Post-doc in Neurophysiology...
  2512. From:    pck@castle.ed.ac.uk (P C Knox)
  2513. Organization: Edinburgh University
  2514. Date:    06 Jul 93 08:20:45 +0000
  2515.  
  2516.  
  2517.  
  2518.                ---- LABORATORY FOR NEUROSCIENCE ----
  2519.  
  2520.                       University of Edinburgh
  2521.  
  2522.  
  2523.         Applications are invited for a post-doctoral research  post  for
  2524. up to three years to join a group  working  on  the  physiology  of  the
  2525. control of gaze (see Donaldson & Knox,  Neuroscience  38:145-161,  1990;
  2526. Knox & Donaldson, Proc.Roy.Soc.Lond.B.  246:243-250, 1991; Hayman et al,
  2527. J.Physiol (Lond) 459:458P, 1993).
  2528.         Experience in single unit  electrophysiology  is  essential  and
  2529. some  experience  of  anatomical   neural   tracing   techniques   using
  2530. transported markers would be and advantage.  Salary on  the  AR1A  scale
  2531. with placement according to age and experience.  Initial  salary  up  to
  2532. #17 379, which includes Wellcome Trust supplement.  Informal  enquiries:
  2533. telephone 031-650-3526
  2534.  
  2535.         Applications (please quote REF: NA 930215) including full CV and
  2536. the names and addresses of two academic referees,  should  be  submitted
  2537. to:
  2538.  
  2539.         The Personnel Office,
  2540.         The University of Edinburgh,
  2541.         1 Roxburgh Street,
  2542.         Edinburgh EH8 9TB
  2543.  
  2544.                 The closing date is 31st July, 1993.
  2545.  
  2546. ------------------------------
  2547.  
  2548. Subject: PostDoc positions in Korea
  2549. From:    sbcho@gorai.kaist.ac.kr (Kang)
  2550. Organization: KTRC in Seoul, Korea
  2551. Date:    07 Jul 93 10:04:01 +0000
  2552.  
  2553. Please pass this advertisement to anyone who you think
  2554. might be interested.
  2555.  
  2556. Thanks in advance.
  2557.  
  2558. Sung-Bae Cho
  2559.  
  2560. =======================================================================
  2561.  
  2562.       Korea Advanced Institute of Science and Technology
  2563.                 Computer Science Department
  2564.                             and
  2565.          Center for Artificial Intelligence Research
  2566.  
  2567.      Post Doctoral Researchers in AI & Pattern Recognition
  2568.  
  2569. Two one-year Post Doctoral Researcher positions are available with
  2570. the AI & Pattern Recognition Group. The main project is in the area
  2571. of 'Cursive handwriting recognition with hidden Markov model and/or
  2572. artificial neural networks,' and will aim to explore the feasibility
  2573. of psychological and cognitive scientific studies. Pattern recognition
  2574. issues such as pattern discrimination and modeling power will be
  2575. investigated. But researchers in other AI fields will also be applicable.
  2576.  
  2577. For further particulars and an application form, contact Dr. Jin H.
  2578. Kim, Computer Science Department, KAIST, 373-1, Koosung-dong,
  2579. Yoosung-ku, Taejeon 305-701, Republic of Korea. Phone 82 42 869 3517,
  2580. E-mail: jkim@cs.kaist.ac.kr.
  2581.  
  2582. The Center follows an equal opportunities policy.
  2583.  
  2584. =======================================================================
  2585.  
  2586.     ********
  2587.    *  *******         Sung-Bae Cho
  2588.  **  **               Computer Science Department
  2589. *** *** *** ***       Korea Advanced Institute of Science and Technology
  2590. *** *** *** ***       373-1, Goosung-dong, Yoosung-ku,
  2591. *** *** *** ***       Taejeon 305-701, South Korea
  2592.         **  **
  2593.   *******   *         Phone : 82-42-869-3557
  2594.     ********          e-mail: sbcho@gorai.kaist.ac.kr
  2595.  
  2596. ------------------------------
  2597.  
  2598. Subject: Cambridge Neural Nets Summer School
  2599. From:    Richard Prager <rwp@eng.cam.ac.uk>
  2600. Date:    Fri, 09 Jul 93 11:38:20 +0000
  2601.  
  2602.  
  2603.      The Cambridge University Programme for Industry in Collaboration
  2604.       with the Cambridge University Engineering Department Announce
  2605.             their Third Annual Neural Networks Summer School.
  2606.                           3 1/2 day short course
  2607.                            13-16 September 1993
  2608.  
  2609.                    BOURLARD    GEE    HINTON    JERVIS
  2610.                 JORDAN    KOHONEN    NARENDRA    NIRANJAN
  2611.                   PECE    PRAGER    SUTTON    TARRASENKO
  2612.  
  2613. Outline and aim of the course
  2614.  
  2615. The course will give a broad introduction to the application and design of
  2616. neural networks and deal with both the theory and with specific
  2617. applications.  Survey material will be given, together with recent
  2618. research results in architecture and training methods, and applications
  2619. including signal processing, control, speech, robotics and human vision.
  2620. Design methodologies for a number of common neural network architectures
  2621. will be covered, together with the theory behind neural network
  2622. algorithms.  Participants will learn the strengths and weaknesses of the
  2623. neural network approach, and how to assess the potential of the technology
  2624. in respect of their own requirements.
  2625.  
  2626. Lectures are being given by international experts in the field, and
  2627. delegates will have the opportunity of learning first hand the technical
  2628. and practical details of recent work in neural networks from those who are
  2629. contributing to those developments.
  2630.  
  2631. Who Should Attend
  2632.  
  2633. The course is intended for engineers, software specialists and other
  2634. scientists who need to assess the current potential of neural networks.
  2635. The course will be of interest to senior technical staff who require an
  2636. overview of the subject, and to younger professionals who have recently
  2637. moved into the field, as well as to those who already have expertise in
  2638. this area and who need to keep abreast of recent developments.  Some,
  2639. although not all, of the lectures will involve graduate level mathematical
  2640. theory.
  2641.  
  2642. PROGRAMME
  2643.  
  2644. Introduction and overview:
  2645.   Connectionist computing: an introduction and overview
  2646.   Programming a neural network
  2647.   Parallel distributed processing perspective
  2648.   Theory and parallels with conventional algorithms
  2649.  
  2650. Architectures:
  2651.   Pattern processing and generalisation
  2652.   Bayesian methods in neural networks
  2653.   Reinforcement learning neural networks
  2654.   Communities of expert networks
  2655.   Self organising neural networks
  2656.   Feedback networks for optimization
  2657.  
  2658. Applications:
  2659.   Classification of time series
  2660.   Learning forward and inverse dynamical models
  2661.   Control of nonlinear dynamical systems using neural networks
  2662.   Artificial and biological vision systems
  2663.   Silicon VLSI neural networks
  2664.   Applications to diagnostic systems
  2665.   Shape recognition in neural networks
  2666.   Applications to speech recognition
  2667.   Applications to mobile robotics
  2668.   Financial system modelling
  2669.   Applications in medical diagnostics
  2670.  
  2671.  
  2672. LECTURERS
  2673.  
  2674. DR HERVE BOURLARD is with Lernout & Hauspie Speech Products in
  2675.   Brussels.  He has made many contributions to the subject particularly in
  2676.   the area of speech recognition.
  2677.  
  2678. MR ANDREW GEE is with the Speech, Vision and Robotics Group of
  2679.   the Cambridge University Engineering Department. He specialises in the
  2680.   use of neural networks for solving complex optimization problems.
  2681.  
  2682. PROFESSOR GEOFFREY HINTON is in the Computer Science Department
  2683.   at the University of Toronto.  He was a founding member of the PDP
  2684.   research group and is responsible for many advances in the subject
  2685.   including the classic back-propagation paper.
  2686.  
  2687. MR TIMOTHY JERVIS is with Cambridge University Engineering
  2688.   Department.  His interests lie in the field of neural networks and in
  2689.   the application of Bayesian statistical techniques to learning control.
  2690.  
  2691. PROFESSOR MICHAEL JORDAN is in the Department of Brain & Cognitive Science
  2692.   at MIT.  He was a founding member of the PDP research group and he made
  2693.   many contributions to the subject particularly in forward and inverse
  2694.   systems.
  2695.  
  2696. PROFESSOR TEUVO KOHONEN is with the Academy of Finland and Laboratory of
  2697.   Computer and Information Science at Helsinki University of Technology.
  2698.   His specialities are in self-organising maps and their applications.
  2699.  
  2700. PROFESSOR K S NARENDRA is with the Center for Systems Science in the
  2701.   Electrical Engineering Department at Yale University.  His interests are
  2702.   in the control of complex systems using neural networks.
  2703.  
  2704. DR MAHESAN NIRANJAN is with the Department of Engineering at Cambridge
  2705.   University.  His specialities are in speech processing and pattern
  2706.   classification.
  2707.  
  2708. DR ARTHUR PECE is in the Physiological laboratory at the University of
  2709.   Cambridge.  His interests are in biological vision and especially neural
  2710.   network models of cortical vision.
  2711.  
  2712. DR RICHARD PRAGER is with the Department of Engineering at Cambridge
  2713.   University.  His specialities are in speech and vision processing using
  2714.   artificial neural systems.
  2715.  
  2716. DR RICH SUTTON is with the Adaptive Systems Department of GTE Laboratories
  2717.   near Boston, USA.  His specialities are in reinforcement learning,
  2718.   planning and animal learning behaviour.
  2719.  
  2720. DR LIONEL TARRASENKO is with the Department of Engineering at the
  2721.   University of Oxford.  His specialities are in robotics and the hardware
  2722.   implementation of neural computing.
  2723.  
  2724. COURSE FEES AND ACCOMMODATION
  2725.  
  2726. The course fee is 750 (UK pounds), payable in advance, and includes full
  2727. course notes, a certificate of attendance, and lunch and day-time
  2728. refreshments for the duration of the course.  A number of heavily
  2729. discounted places are available for academics; please contact Renee Taylor
  2730. if you would like to be considered for one of these places.  Accommodation
  2731. can be arranged for delegates in college rooms with shared facilities at
  2732. Wolfson College at 163 (UK pounds) for 4 nights to include bed and
  2733. breakfast, dinner with wine and a Course Dinner.
  2734.  
  2735. For more information contact:  Renee Taylor, Course Development Manager
  2736. Cambridge Programme for Industry, 1 Trumpington Street, Cambridge CB2 1QA,
  2737. United Kingdom tel: +44 (0)223 332722 fax +44 (0)223 301122
  2738. email: rt10005@uk.ac.cam.phx
  2739.  
  2740.  
  2741.  
  2742. ------------------------------
  2743.  
  2744. Subject: POSITION AVAILABLE - STATISTICIAN
  2745. From:    Phil Goodman <goodman@unr.edu>
  2746. Date:    Mon, 12 Jul 93 22:59:14 +0000
  2747.  
  2748.  
  2749. ******************* Professional Position Announcement ******************
  2750.  
  2751.      "STATISTICIAN for NEURAL NETWORK & REGRESSION DATABASE RESEARCH"
  2752.  
  2753.  .- - - - - - - - - - - - - - OVERVIEW - - - - - - - - - - - - - - - - -.
  2754.  |                                                                      |
  2755.  |                          THE LOCATION:                               |
  2756.  |  Nevada's Reno/Lake Tahoe region is an outstanding environment for   |
  2757.  |  living, working, and raising a family. Winter skiing is world-class,|
  2758.  |  summer recreation includes many mountain and water sports, and      |
  2759.  |  historical exploration and cultural opportunities abound.           |
  2760.  |                                                                      |
  2761.  |                          THE PROJECT:                                |
  2762.  |  The new CENTER FOR BIOMEDICAL MODELING RESEARCH recently received   |
  2763.  |  federal funding to refine and apply a variety of artificial neural  |
  2764.  |  network algorithms to large cardiovascular health care databases.   |
  2765.  |                                                                      |
  2766.  |                          THE CHALLENGE:                              |
  2767.  |  The predictive performance of neural nets will be compared to       |
  2768.  |  advanced regression models. Other comparisons to be made include    |
  2769.  |  handling of missing and noisy data, and selection of important      |
  2770.  |  interactions among variables.                                       |
  2771.  |                                                                      |
  2772.  |                          THE JOB REQUIREMENT:                        |
  2773.  |  Masters-level or equivalent statistician with working knowledge     |
  2774.  |  of the SAS statistical package and the UNIX operating system.       |
  2775.  |                                                                      |
  2776.  |                          THE SALARY         :                        |
  2777.  |  Approximate starting annual salary: $42,000 + full benefits .       |
  2778.  |  (actual salary will depend on experience and qualifications)        |
  2779.  ._ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ .
  2780.  
  2781.  
  2782. POSITION:       Research Statistics Coordinator for
  2783.                 NEURAL NETWORKS / HEALTH CARE DATABASE PROJECT
  2784.  
  2785. LOCATION:       Center for Biomedical Modeling Research
  2786.                 Department of Internal Medicine
  2787.                 University of Nevada School of Medicine
  2788.                 Washoe Medical Center, Reno, Nevada
  2789.  
  2790. START DATE:     September 1, 1993
  2791.  
  2792. CLOSING DATE:   Open until filled.
  2793.  
  2794. DESCRIPTION:    Duties include acquisition and translation of data
  2795. from multiple external national sources; data management and archiving;
  2796. performance of exploratory and advanced regression statistics;
  2797. performance of artificial neural network processing; participation
  2798. in scholarly research and publications.
  2799.  
  2800. QUALIFICATIONS: (1) M.S., M.A., M.P.H. or equivalent training in
  2801. statistics with experience in logistic and Cox regression analyses,
  2802. (2) ability to program in the SAS statistical language, and
  2803. (3) experience with UNIX computer operating systems.
  2804.                 Desirable but not mandatory are the abilities to use
  2805. (4) the S-PLUS data management system and (5) the C programming language.
  2806.  
  2807. SALARY:         Commensurate with qualifications and experience.
  2808.                 (For example, with database experience, typical annual
  2809.                  salary would be approximately $42,000 + full benefits.)
  2810.  
  2811. APPLICATION:    > Informal inquiry may be made to:
  2812.  
  2813.       Phil Goodman, Director, Center for Biomedical Modeling Research
  2814.       Internet: goodman@unr.edu       Phone: 702-328-4867
  2815.  
  2816.                 > Formal consideration requires a letter of application,
  2817.                   vita, and names of three references sent to:
  2818.  
  2819.       Philip Goodman, MD, MS
  2820.       Director, Center for Biomedical Modeling Research
  2821.         University of Nevada School of Medicine
  2822.         Washoe Medical Center, Room H1-166
  2823.         77 Pringle Way, Reno, NV  89520
  2824.  
  2825. The University of Nevada is an Equal Opportunity/Affirmative Action
  2826. employer and does not discriminate on the basis of race, color,
  2827. religion, sex, age, national origin, veteran's status or handicap
  2828. in any program it operates. University of Nevada employs only U.S.
  2829. citizens and aliens lawfully authorized to work in the United States.
  2830.  
  2831. ************************************************************************
  2832.  
  2833.  
  2834. ------------------------------
  2835.  
  2836. Subject: Research Opportunities in Neural Networks
  2837. From:    rohwerrj <rohwerrj@cs.aston.ac.uk>
  2838. Date:    Tue, 13 Jul 93 12:49:52 +0000
  2839.  
  2840. *****************************************************************************
  2841.                   RESEARCH OPPORTUNITIES in NEURAL NETWORKS
  2842.              Dept. of Computer Science and Applied Mathematics
  2843.                              Aston University
  2844. *****************************************************************************
  2845.  
  2846. Funding has recently become available for up to 6 PhD studentships and
  2847. up to 3 postdoctoral fellowships in the Neural Computing Research
  2848. Group at Aston University.  This group is currently undergoing a major
  2849. expansion with the recent appointments of Professor Chris Bishop
  2850. (formerly head of the Applied Neurocomputing Centre at AEA Technology,
  2851. Harwell Laboratory) and Professor David Lowe (formerly head of the
  2852. neural network research group at DRA, Malvern), joining Professor
  2853. David Bounds and lecturers Richard Rohwer and Alan Harget.  In
  2854. addition, substantial funds are being invested in new computer
  2855. hardware and software and other resources, which will provide the
  2856. Group with extensive research facilities.
  2857.  
  2858. The research programme of the Group is focussed on the development of
  2859. neural computing techniques from a sound statistical pattern
  2860. processing perspective.  Research topics span the complete range from
  2861. developments of the theoretical foundations of neural computing,
  2862. through to a wide range of application areas. The Group maintains
  2863. close links with several industrial organisations, and is
  2864. participating in a number of collaborative projects.
  2865.  
  2866. For further information, please contact me at the address below:
  2867.  
  2868. Richard Rohwer
  2869. Dept. of Computer Science and Applied Mathematics
  2870. Aston University
  2871. Aston Triangle
  2872. Birmingham  B4 7ET
  2873. ENGLAND
  2874.  
  2875. Tel: (44 or 0) (21) 359-3611 x4688
  2876. FAX: (44 or 0) (21) 333-6215
  2877. rohwerrj@uk.ac.aston.cs
  2878.  
  2879.  
  2880.  
  2881.  
  2882. ------------------------------
  2883.  
  2884. End of Neuron Digest [Volume 11 Issue 45]
  2885. *****************************************
  2886. Received: from BUACCA by BUACCA.BU.EDU (Mailer R2.08 PTF009) with BSMTP id
  2887.  1299; Thu, 12 Aug 93 18:30:20 EDT
  2888. Received: from noc4.dccs.upenn.edu by BUACCA.BU.EDU (IBM VM SMTP R1.2.1) with
  2889.  TCP; Thu, 12 Aug 93 18:30:18 EDT
  2890. Received: from CATTELL.PSYCH.UPENN.EDU by noc4.dccs.upenn.edu
  2891.     id AA26848; Thu, 12 Aug 93 18:26:45 -0400
  2892. Return-Path: <marvit@cattell.psych.upenn.edu>
  2893. Received: from LOCALHOST by cattell.psych.upenn.edu
  2894.     id AA18329; Thu, 12 Aug 93 17:13:58 EDT
  2895. Posted-Date: Thu, 12 Aug 93 17:13:12 -0400
  2896. From: "Neuron-Digest Moderator" <neuron-request@CATTELL.PSYCH.UPENN.EDU>
  2897. To: Neuron-Distribution:;
  2898. Subject: Neuron Digest V11 #46 (discussion + jobs + queries)
  2899. Reply-To: "Neuron-Request" <neuron-request@CATTELL.PSYCH.UPENN.EDU>
  2900. X-Errors-To: "Neuron-Request" <neuron-request@psych.upenn.edu>
  2901. Organization: University of Pennsylvania
  2902. Date: Thu, 12 Aug 93 17:13:12 -0400
  2903. Message-Id: <18313.745189992@cattell.psych.upenn.edu>
  2904. Sender: marvit@cattell.psych.upenn.edu
  2905.  
  2906. Neuron Digest   Thursday, 12 Aug 1993
  2907.                 Volume 11 : Issue 46
  2908.  
  2909. Today's Topics:
  2910.                        Administrivia - We're back
  2911.                            Whence cybernetics?
  2912.                          Re: Whence cybernetics?
  2913.                          Re: Whence cybernetics?
  2914.                          Re: Whence cybernetics?
  2915.                  Research posts at U. of Central England
  2916.                        P.C. Based Neural Softwares
  2917.                 Basins of Attraction of Cellular Automata
  2918.                    CASE project available for students
  2919.                  Training of Nets and Multiple Solutions
  2920.  
  2921.  
  2922. Send submissions, questions, address maintenance, and requests for old
  2923. issues to "neuron-request@psych.upenn.edu". The ftp archives are
  2924. available from psych.upenn.edu (130.91.68.31). Back issues requested by
  2925. mail will eventually be sent, but may take a while.
  2926.  
  2927. ----------------------------------------------------------------------
  2928.  
  2929. Subject: Administrivia - We're back
  2930. From:    "Neuron-Digest Moderator, Peter Marvit"
  2931.  <neuron@cattell.psych.upenn.edu>
  2932. Date:    Wed, 11 Aug 93 13:30:57 -0500
  2933.  
  2934. Dear readers,
  2935.  
  2936. Again, I thank you for your patience during my slightly longer than
  2937. expected "holiday."  The Neuron Digest resumes with this issue and will
  2938. be coming rather thickly in the next few weeks. Most of the issues will
  2939. be, as I previously wrote, long-overdue paper and technical report
  2940. announcements as well as conference announcments.
  2941.  
  2942. However, I will start off first with the usual set of discussion items
  2943. from you readers, plus a short set of postings about cybernetics from a
  2944. related list.  Enjoy...
  2945.  
  2946.         -Peter
  2947.  
  2948. : Peter Marvit, Neuron Digest Moderator  <neuron-request@psych.upenn.edu>  :
  2949. : Courtesy of the Psychology Department,  University of Pennsylvania       :
  2950. : 3815 Walnut St., Philadelphia, PA  19104  w:215/898-6274  h:215/387-6433 :
  2951.  
  2952.  
  2953.  
  2954. ------------------------------
  2955.  
  2956. Subject: Whence cybernetics?
  2957. From:    gal2@kimbark.uchicago.edu (Jacob Galley)
  2958. Organization: University of Chicago Computing Organizations
  2959. Date:    04 Jul 93 03:45:55 +0000
  2960.  
  2961. I have been studying linguistics and cognitive science type stuff for
  2962. about two years in college, and I am just now becoming aware of the
  2963. long line of cybernetic thought which runs parallel to "good
  2964. old-fashioned" symbolic AI. Why is this work now (and apparently
  2965. always since the schism) more obscure than work done in symbolic,
  2966. serial cognitive modelling?
  2967.  
  2968. I quote from _Foundations of Neural Networks_ by Tarun Khanna
  2969. (Addison-Wesley 1990):
  2970.  
  2971. #This continuous/symbolic dichotomy gave rise to and was then
  2972. #reinforced by other concurrently existing dichotomies. The
  2973. #cyberneticians dealt primarily with pattern recognition and were
  2974. #concerned with developing systems that learned. The AI community, on
  2975. #the other hand, concentrated on problem solving and therefore on
  2976. #creating systems that performed specific tasks demanding intelligence,
  2977. #for example, theorem-proving and game-playing. Predictably, each of
  2978. #these groups of tasks was easier to tackle in its specific class of
  2979. #systems. For example, it is easier to tackle a game-playing exercise
  2980. #in a programming system than in a continuous system. Simultaneously,
  2981. #cyberneticians were preoccupied with the neurophysiology and the AI
  2982. #community with psychology. While the former connection is easier to
  2983. #understand, the latter arose primarily because it is easier to
  2984. #postulate psychologically meaningful results using programming systems
  2985. #than it is to postulate physiological ones. Their preoccupation with
  2986. #neurophysiology led cyberneticians to deal primarily with highly
  2987. #parallel systems. The programming systems employed by the AI community
  2988. #were, on the other hand, inherently serial. (page 4)
  2989.  
  2990. [Khanna goes on to portray connectionism as a new hybrid between the
  2991. two traditions.]
  2992.  
  2993. I am amazed that this alternative to symbolic AI is so obscure. Why
  2994. are (symbolic) artificial intelligence classes, theories and opinions
  2995. so easy to find, but cybernetic thought has faded away, become
  2996. esoteric?
  2997.  
  2998. There are lots of reasons I can think of which seem reasonable, but I
  2999. don't know enough of the history to be sure:
  3000.  
  3001. * Cybernetic theory is more abstract, difficult, vague. (No idea yet
  3002.   if this is even true.)
  3003.  
  3004. * The "Chomskyan Revolution" in linguistics and/or the "Cognitive
  3005.   Revolution" in psychology tipped the scales in the symbolic AI
  3006.   tradition's favor. (No idea what the causal relationships are
  3007.   between the three symbolic schools, if any can be clearly
  3008.   attributed.)
  3009.  
  3010. * The foundations of serial programming caught on before the
  3011.   foundations of parallel programming (which we are still hammering
  3012.   out today, imho), so applications of symbolic AI were more
  3013.   successful, more glamorous, sooner.
  3014.  
  3015. Does anyone have any thoughts on this?
  3016.  
  3017. Jake.
  3018. - --
  3019. * What's so interdisciplinary about studying lower levels of thought process?
  3020.                                   <-- Jacob Galley * gal2@midway.uchicago.edu
  3021.  
  3022. ------------------------------
  3023.  
  3024. Subject: Re: Whence cybernetics?
  3025. From:    gal2@kimbark.uchicago.edu (Jacob Galley)
  3026. Organization: University of Chicago
  3027. Date:    04 Jul 93 18:01:20 +0000
  3028.  
  3029.  
  3030. I received the following reply, and figured I might as well post it.
  3031. (I've added comp.ai.neural-nets to the list, since I now know it exists.)
  3032.  
  3033. - ---------
  3034.  
  3035. Date: Sun, 4 Jul 1993 00:41:16 -0700 (PDT)
  3036. From: Melvin Rader <radermel@u.washington.edu>
  3037. Subject: Re: Whence cybernetics
  3038.  
  3039. First off, I'm not posting this because I can't -- I just found this modem
  3040. in the parents' computer a couple days ago, and I haven't yet figured out
  3041. how to deal with my system's editor for posting to usenet.
  3042.  
  3043. Anyway, in response to your question:
  3044.  
  3045.         By cybernetics, I take you to mean the study of neural networks
  3046. and connectionist models of artificial intelligence.  By no means is it
  3047. dead, or even all that obscure.  As an undergraduate at the Evergreen
  3048. State College in Olympia, WA this year I took four credits of
  3049. 'Connectionism' and another four of programming of neural networks.  I
  3050. believe there's a newsgroup devoted to neural networks as well.
  3051.         Seymour Papert has written a whimsical account of the history of
  3052. network vs. symbolic approaches to artificial intelligence:
  3053.  
  3054.         "Once upon a time two daughter sciences were born to the new
  3055. science of cybernetics.  One sister was natural, with features inherited
  3056. from the study of the brain, from the way nature does things.  The other
  3057. was artificial, related from the beginning to the use of computers.  Each
  3058. of the sister sciences tried to build models of intelligence, but from
  3059. very different materials.  The natural sister built models (called neural
  3060. networks) out of mathematically purified neurones.  The artificial sister
  3061. built her models out of computer programs.
  3062.         "In their first bloom of youth the two were equally successful and
  3063. equally pursued by suitors from other fields of knowledge.  They got on
  3064. very well together.  Their relationship changed in the early sixties when
  3065. a new monarch appeared, one with the largest coffers ever seen in the
  3066. kingdom of the sciences:  Lord DARPA, the Defence Department's Advanced
  3067. Research Projects Agency.  The artificial sister grew jealous and was
  3068. determined to keep for herself the access to Lord DARPA's research funds.
  3069. The natural sister would have to be slain.
  3070.         "The bloody work was attempted by two staunch followers of the
  3071. artificial sister, Marvin Minsky and Seymour Papert, cast in the role of
  3072. the huntsman sent to slay Snow White and bring back her heart as proof of
  3073. the deed. Their weapon was not the dagger but the mightier pen, from which
  3074. came a book - Perceptrons ..."
  3075.  
  3076.         Minsky and Papert's book did effectively kill further research
  3077. into neural networks for about two decades.  The thrust of the book
  3078. was that with the learning algorithms that had been developed then, neural
  3079. networks could only learn linearly separable problems, which are always
  3080. simple (this was proved mathematically).  Networks existed which could
  3081. solve more complicated problems, but they had to be "hard wired" - the
  3082. person setting up the network had to set it up in such a way that the network
  3083. already "knew" everything that it was going to be tested on; there was
  3084. no way for such a network to learn.  (The book also raised some other,
  3085. more philosophical concerns.)  Since learning was basically the only
  3086. advantage neural network models had over symbolic models (aside from an
  3087. asthetic appeal due to their resemblance to natural models), research into
  3088. neural networks died out.  (Also, NN research is associated
  3089. philosophically with behaviorism - NNs solve through association.  When
  3090. behaviorism died, it also helped bring down the NN field.)
  3091.         However, in the late 70's (I think) the 'backpropagation training
  3092. algorithm' was developed.  Backpropagation allows the training of neural
  3093. networks which are powerful enough to solve non-linearly separable
  3094. problems, although it has no natural equivalent.  With the development of
  3095. backpropagation, and with the association of several big names with the
  3096. field, research into network models of artificial intelligence revived.
  3097.         I understand the term 'Connectionism' to apply to a field which
  3098. draws from neural network research and research into the brain.  In
  3099. contrast to whatever book you were quoting from, I understand
  3100. connectionist thought to be at odds with the symbolic approach to
  3101. artificial intelligence.  A good book to read on the subject is
  3102. Connectionism and the Mind by Bechtel and Abrahamsen.  It is a good
  3103. introduction to connectionism and goes into the philosophy behind it all,
  3104. although some of the math is off.
  3105.  
  3106. - --Kimbo
  3107.  
  3108.  
  3109.  
  3110. - --
  3111. * What's so interdisciplinary about studying lower levels of thought process?
  3112.                                   <-- Jacob Galley * gal2@midway.uchicago.edu
  3113.  
  3114. ------------------------------
  3115.  
  3116. Subject: Re: Whence cybernetics?
  3117. From:    wbdst+@pitt.edu (William B Dwinnell)
  3118. Organization: University of Pittsburgh
  3119. Date:    04 Jul 93 22:08:00 +0000
  3120.  
  3121.  
  3122. The passage you posted concerning cybernetics is somewhat misleading.  The
  3123. term "cybernetics" was coined by Norbert Wiener in the 1940's, defining it
  3124. as "the entire field of control and communication theory, whether in the
  3125. machine or in the animal".  In its narrowest sense, as Wiener wrote about
  3126. it, cybernetics might be thought of as a precursor to modern information
  3127. theory (he mentions Shannon, by the way, in his book "Cybernetics"), control
  3128. theory (including what we now call robotics), and, to some degree, prediction.
  3129. In the most general sense, "cybernetics" may be construed as covering all
  3130. of computer science, and more.  It is common today for people to present
  3131. cybernetics in light of AI or robotics, but there is no reason to put
  3132. this special slant on cybernetics.  Probably the most accurate short
  3133. definition of "cybernetics", using contemporary terminology would be a
  3134. proto-science concerning information theory and communication theory.
  3135.  
  3136. ------------------------------
  3137.  
  3138. Subject: Re: Whence cybernetics?
  3139. From:    minsky@media.mit.edu (Marvin Minsky)
  3140. Organization: MIT Media Laboratory
  3141. Date:    06 Jul 93 06:05:52 +0000
  3142.  
  3143. >Date: Sun, 4 Jul 1993 00:41:16 -0700 (PDT)
  3144. >From: Melvin Rader <radermel@u.washington.edu>
  3145. >Subject: Re: Whence cybernetics
  3146.  
  3147. >       By cybernetics, I take you to mean the study of neural networks
  3148. >and connectionist models of artificial intelligence.  By no means is it
  3149. >dead, or even all that obscure.  As an undergraduate at the Evergreen
  3150. >State College in Olympia, WA this year I took four credits of
  3151. >'Connectionism' and another four of programming of neural networks.  I
  3152.  
  3153. >       Minsky and Papert's book did effectively kill further research
  3154. >into neural networks for about two decades.  The thrust of the book
  3155. >was that with the learning algorithms that had been developed then, neural
  3156. >networks could only learn linearly separable problems, which are always
  3157. >simple (this was proved mathematically).  Networks existed which could
  3158. >solve more complicated problems, but they had to be "hard wired" - the
  3159. >person setting up the network had to set it up in such a way that the network
  3160. > etc.
  3161.  
  3162. You'd better give those credits back.  The book explained (1) some
  3163. theory of which geometric problems were linearly separable (and the
  3164. results were not notably simple), (2) derived lower bounds on how the
  3165. size of networks and coefficients grow with the size of certain
  3166. problems, and (3) these results have nothing whatever to do with the
  3167. learning algorithms involved, because they only discuss the existence
  3168. of suitable networks.
  3169.  
  3170.   There was not so much research in neural networks between 1969, when
  3171. the book was published, and around 1980 or so.  This may have been
  3172. partly because we showed that feedforward nets are impractical for
  3173. various kinds of invariant recognitions on large retinas, but they are
  3174. useful for many other kinds of problems.  The problem was that too
  3175. many people propagated absurdly wrong summaries of what the book said
  3176. - -- as in the above account.  There were some gloomy remarks near the
  3177. end of the book about the unavailability of convergence guarantees for
  3178. multilayer nets (as compared with the simple perceptron procedure,
  3179. which always converges for separable patterns), and this might have
  3180. discouraged some theorists.  There still are no such guarantees for
  3181. learning algorithms of practical size -- but for many practical
  3182. purposes, no one cares much about that.
  3183.  
  3184. ------------------------------
  3185.  
  3186. Subject: Research posts at U. of Central England
  3187. From:    "r.kelly" <DFCA4601G@UNIVERSITY-CENTRAL-ENGLAND.AC.UK>
  3188. Date:    Tue, 20 Jul 93 11:04:57
  3189.  
  3190.  
  3191. University of Central England
  3192. Neural Net Applications: Research Posts
  3193.  
  3194.  
  3195. Monitoring of Gas Cylinder Production:
  3196.  
  3197. This programme is concerned with the use of ANNs to identify a
  3198. number of problems commonly found during the production of aluminium
  3199. gas cylinders. ANNs will be trained to recognise and classify
  3200. problems from historical process data.  Later stages of the work
  3201. will involve real-time data.
  3202.  
  3203. This is a 3 year SERC studentship that will be converted to a CASE
  3204. Award.  Applicants will be expected to register for MPhil/PhD.
  3205.  
  3206.  
  3207. Monitoring and Control of Aluminium Spot-Welding:
  3208.  
  3209. This programme is concerned with the use of ANNs for the monitoring
  3210. and control of resistance spot-welding of aluminium.  The work is
  3211. primarily concerned with the use of ANNs to provide a novel method of
  3212. NDT for spot-welds.  Initial work will concentrate on historical
  3213. process data but it is anticipated that the later stages of the work
  3214. will involve enhancement to real-time operation.  This program is
  3215. funded by Alcan International.
  3216.  
  3217. Although initially planned as a ONE year Reasearch Assistantship it
  3218. would be possible to convert the post into a TWO or THREE year
  3219. studentship if preferred to allow registration for MPhil/Phd.
  3220.  
  3221.  
  3222. Candidates for both posts should have an interest in ANNs and good
  3223. mathematical skills, ideally with a knowledge of MATLAB.
  3224.  
  3225. Enquiries to:  Dr Keith Osman, Manufacturing Technology, UCE Birmingham
  3226. tel: 021-331-5662     fax: 021-331-6315     email: k.a.osman@uk.ac.uce
  3227.  
  3228.  
  3229.  
  3230.  
  3231.  
  3232. ------------------------------
  3233.  
  3234. Subject: P.C. Based Neural Softwares
  3235. From:    "R.S.Habib" <R.S.Habib@lut.ac.uk>
  3236. Date:    Thu, 22 Jul 93 16:12:56 +0000
  3237.  
  3238. Hello There,
  3239.  
  3240.  
  3241. Can anybody advice me how can I get a list of some avialble P.C. based
  3242. softwre tools preferably but (not necessary) Back-prop. based Any advice
  3243. is appreciated.
  3244.  
  3245.  
  3246. Thank you
  3247.  
  3248.  
  3249. R. Istepanian
  3250. E-mail : R.S.Habib@lut.ac.uk
  3251.  
  3252.  
  3253. ------------------------------
  3254.  
  3255. Subject: Basins of Attraction of Cellular Automata
  3256. From:    jboller@is.morgan.com (John Boller)
  3257. Date:    Fri, 30 Jul 93 15:37:18 -0500
  3258.  
  3259. Hi,
  3260. I am looking for references to the comparison of
  3261. Basins of Attraction of Cellular Automata and
  3262. Neural Networks.
  3263. I would greatly appreciate anyone who could point
  3264. me in the correct direction.
  3265.  
  3266. thanks, john boller
  3267.  
  3268. email: jboller@is.morgan.com
  3269.  
  3270.  
  3271.  
  3272. ------------------------------
  3273.  
  3274. Subject: CASE project available for students
  3275. From:    John Shawe-Taylor <john@dcs.rhbnc.ac.uk>
  3276. Date:    Tue, 03 Aug 93 14:00:39 +0000
  3277.  
  3278. The following quota CASE project title and description has been agreed
  3279. with an industrial partner. Any interested students should contact
  3280. asap either John Shawe-Taylor by email (john@dcs.rhbnc.ac.uk) or Dieter
  3281. Gollmann by telephone (0784-443698).
  3282.  
  3283. Many thanks,
  3284. John Shawe-Taylor
  3285. Department of Computer Science,
  3286. Royal Holloway, University of London,
  3287. Egham, Surrey TW20 0EX  UK
  3288. Fax: (0784) 443420
  3289.  
  3290.  
  3291. Constrained Models of Time series Prediction: Theory and Practice
  3292.  
  3293. The project will examine neural models for time series prediction. The
  3294. problem of introducing constraints will be examined, in particular
  3295. criteria for choosing appropriate cost functions and a posteriori
  3296. estimates of confidence levels will be studied, including situations
  3297. where shifts occur in the underlying distributions. These principles will
  3298. be addressed in the context of applications on real data arising from
  3299. complex predictions of market developments.
  3300.  
  3301.  
  3302.  
  3303.  
  3304. ------------------------------
  3305.  
  3306. Subject: Training of Nets and Multiple Solutions
  3307. From:    jboller@is.morgan.com (John Boller)
  3308. Date:    Thu, 05 Aug 93 15:07:18 -0500
  3309.  
  3310. Hi,
  3311. I was wondering if anyone had anecdotes or sources
  3312. about the behaviour of Neural Nets when the training
  3313. sets permit a number of solutions as equally likely
  3314. (same utility value).  I am looking at Basins of
  3315. Attraction, and this case would seem to be related.
  3316.  
  3317. Thanks, John Boller
  3318. email: jboller@is.morgan.com
  3319.  
  3320.  
  3321.  
  3322. ------------------------------
  3323.  
  3324. End of Neuron Digest [Volume 11 Issue 46]
  3325. *****************************************
  3326. Received: from BUACCA by BUACCA.BU.EDU (Mailer R2.08 PTF009) with BSMTP id
  3327.  0562; Tue, 17 Aug 93 18:08:52 EDT
  3328. Received: from noc4.dccs.upenn.edu by BUACCA.BU.EDU (IBM VM SMTP R1.2.1) with
  3329.  TCP; Tue, 17 Aug 93 18:08:46 EDT
  3330. Received: from CATTELL.PSYCH.UPENN.EDU by noc4.dccs.upenn.edu
  3331.     id AA10635; Tue, 17 Aug 93 17:39:04 -0400
  3332. Return-Path: <marvit@cattell.psych.upenn.edu>
  3333. Received: from LOCALHOST by cattell.psych.upenn.edu
  3334.     id AA08375; Tue, 17 Aug 93 16:25:56 EDT
  3335. Posted-Date: Tue, 17 Aug 93 16:25:15 -0400
  3336. From: "Neuron-Digest Moderator" <neuron-request@CATTELL.PSYCH.UPENN.EDU>
  3337. To: Neuron-Distribution:;
  3338. Subject: Neuron Digest V11 #47 (tech reports, papers, publications)
  3339. Reply-To: "Neuron-Request" <neuron-request@CATTELL.PSYCH.UPENN.EDU>
  3340. X-Errors-To: "Neuron-Request" <neuron-request@psych.upenn.edu>
  3341. Organization: University of Pennsylvania
  3342. Date: Tue, 17 Aug 93 16:25:15 -0400
  3343. Message-Id: <8359.745619115@cattell.psych.upenn.edu>
  3344. Sender: marvit@cattell.psych.upenn.edu
  3345.  
  3346. Neuron Digest   Friday, 13 Aug 1993
  3347.                 Volume 11 : Issue 47
  3348.  
  3349. Today's Topics:
  3350.                        NIPS91 paper in neuroprose
  3351.                  IJNS contents volume 2, issue 4 (1991)
  3352.     TR - Training Second-Order Recurrent Neural Networks Using Hints
  3353.       TR - connectionist model for commonsense reasoning with rules
  3354.           Paper - Logics and Variables in Connectionist Models
  3355. TR - Fuzzy Evidential Logic: A Model of Causality for Commonsense Reasoning}
  3356.     Preprint available: A network to velocity vector-field correction
  3357.               neural-oscillator network, reprints available
  3358.                ALOPEX algorithm solves the MONK's problems
  3359.     TR - Modelling the Development of Topography and Ocular Dominance
  3360.     Preprint available: A network to velocity vector-field correction
  3361.                     Neural Chess: Paper Presentation
  3362.  
  3363.  
  3364. Send submissions, questions, address maintenance, and requests for old
  3365. issues to "neuron-request@psych.upenn.edu". The ftp archives are
  3366. available from psych.upenn.edu (130.91.68.31). Back issues requested by
  3367. mail will eventually be sent, but may take a while.
  3368.  
  3369. ----------------------------------------------------------------------
  3370.  
  3371. Subject: NIPS91 paper in neuroprose
  3372. From:    giles@research.nj.nec.com (Lee Giles)
  3373. Date:    Wed, 05 Feb 92 15:29:51 -0500
  3374.  
  3375.  
  3376.  
  3377.  
  3378. The following paper has been placed in the Neuroprose archive.
  3379. Comments and questions are invited.
  3380.  
  3381. *******************************************************************
  3382.  
  3383.          --------------------------------------------
  3384.          EXTRACTING AND LEARNING AN "UNKNOWN" GRAMMAR
  3385.               WITH RECURRENT NEURAL NETWORKS
  3386.          --------------------------------------------
  3387.  
  3388.  
  3389.  
  3390. C.L.Giles*, C.B.Miller     D.Chen, G.Z.Sun, H.H.Chen, Y.C.Lee
  3391. NEC Research Institute     *Institute for Advanced Computer Studies
  3392. 4 Independence Way         Dept. of Physics & Astronomy
  3393. Princeton, N.J. 08540      University of Maryland
  3394. giles@research.nj.nec.com  College Park, Md 20742
  3395. ___________________________________________________________________
  3396.  
  3397. ------------------------------
  3398.  
  3399. Subject: IJNS contents volume 2, issue 4 (1991)
  3400. From:    Benny Lautrup <LAUTRUP@nbivax.nbi.dk>
  3401. Date:    Mon, 09 Mar 92 17:28:00 +0100
  3402.  
  3403.  
  3404.  
  3405. INTERNATIONAL JOURNAL OF NEURAL SYSTEMS
  3406.  
  3407. The International Journal of Neural  Systems  is  a  quarterly  journal
  3408. which covers information processing in natural  and  artificial  neural
  3409. systems. It publishes original contributions on  all  aspects  of  this
  3410. broad subject which involves  physics,  biology,  psychology,  computer
  3411. science and engineering. Contributions include research papers, reviews
  3412. and short communications.  The  journal  presents  a  fresh  undogmatic
  3413. attitude towards this multidisciplinary field with  the  aim  to  be  a
  3414. forum for novel ideas and  improved  understanding  of  collective  and
  3415. cooperative phenomena with computational capabilities.
  3416.  
  3417. ISSN: 0129-0657 (IJNS)
  3418.  
  3419. - ----------------------------------
  3420.  
  3421. Contents of Volume 2, issue number 4 (1991):
  3422.  
  3423.  
  3424. 1.  N. Burgess, M.N. Granieri & S. Patarnello:
  3425.     3-D object classification: Application of a constructor algorithm.
  3426.  
  3427. 2.  R. Meir:
  3428.     On deriving deterministic learning rules from stochastic systems.
  3429.  
  3430. 3.  E.M. Johansson, F.U. Dowla & D.M. Goodman:
  3431.     Backpropagation learning for multi-layer feed-forward neural networks
  3432.     using the conjugate gradient method.
  3433.  
  3434. 4.  W. Banzhaf & M. Schmutz:
  3435.     Some notes on competition among cell assemblies.
  3436.  
  3437. 5.  M. Bengtsson:
  3438.     Asymptotic properties of a third order neural network.
  3439.  
  3440. 6.  C.J.P. Vicente, J. Carrabina & E. Vladerrama:
  3441.     Discrete learning in feed-forward neural networks.
  3442.  
  3443. 7.  J. Chen, M.A. Shanblatt & C-H Maa:
  3444.     Improved neural networks for linear and non-linear programming.
  3445.  
  3446. 8.  M. Bahrami:
  3447.     Recognition of rules and exceptions by neural networks.
  3448.  
  3449. 9.  A.V. Robins:
  3450.     Multiple representations in connectionist systems.
  3451.  
  3452. 10. D.G. Stork:
  3453.     Book Review
  3454.     Evolution of the first nervous systems by P.A.V. Anderson (ED).
  3455. - ----------------------------------
  3456.  
  3457.  
  3458. Editorial board:
  3459.  
  3460. B. Lautrup (Niels Bohr Institute, Denmark)  (Editor-in-charge)
  3461. S. Brunak (Technical Univ. of Denmark) (Assistant Editor-in-Charge)
  3462.  
  3463. D. Stork (Stanford) (Book review editor)
  3464.  
  3465. Associate editors:
  3466.  
  3467. B. Baird (Berkeley)
  3468. D. Ballard (University of Rochester)
  3469. E. Baum (NEC Research Institute)
  3470. S. Bjornsson (University of Iceland)
  3471. J. M. Bower (CalTech)
  3472. S. S. Chen (University of North Carolina)
  3473. R. Eckmiller (University of Dusseldorf)
  3474. J. L. Elman (University of California, San Diego)
  3475. M. V. Feigelman (Landau Institute for Theoretical Physics)
  3476. F. Fogelman-Soulie (Paris)
  3477. K. Fukushima (Osaka University)
  3478. A. Gjedde (Montreal Neurological Institute)
  3479. S. Grillner (Nobel Institute for Neurophysiology, Stockholm)
  3480. T. Gulliksen (University of Oslo)
  3481. D. Hammerstrom (Oregon Graduate Institute)
  3482. D. Horn (Tel Aviv University)
  3483. J. Hounsgaard (University of Copenhagen)
  3484. B. A. Huberman (XEROX PARC)
  3485. L. B. Ioffe (Landau Institute for Theoretical Physics)
  3486. P. I. M. Johannesma (Katholieke Univ. Nijmegen)
  3487. M. Jordan (MIT)
  3488. G. Josin (Neural Systems Inc.)
  3489. I. Kanter (Princeton University)
  3490. J. H. Kaas (Vanderbilt University)
  3491. A. Lansner (Royal Institute of Technology, Stockholm)
  3492. A. Lapedes (Los Alamos)
  3493. B. McWhinney (Carnegie-Mellon University)
  3494. M. Mezard (Ecole Normale Superieure, Paris)
  3495. J. Moody (Yale, USA)
  3496. A. F. Murray (University of Edinburgh)
  3497. J. P. Nadal (Ecole Normale Superieure, Paris)
  3498. E. Oja (Lappeenranta University of Technology, Finland)
  3499. N. Parga (Centro Atomico Bariloche, Argentina)
  3500. S. Patarnello (IBM ECSEC, Italy)
  3501. P. Peretto (Centre d'Etudes Nucleaires de Grenoble)
  3502. C. Peterson (University of Lund)
  3503. K. Plunkett (University of Aarhus)
  3504. S. A.  Solla (AT&T Bell Labs)
  3505. M. A. Virasoro (University of Rome)
  3506. D. J. Wallace (University of Edinburgh)
  3507. D. Zipser (University of California, San Diego)
  3508.  
  3509. - ----------------------------------
  3510.  
  3511.  
  3512. CALL FOR PAPERS
  3513.  
  3514. Original contributions consistent with the scope  of  the  journal  are
  3515. welcome.  Complete  instructions  as  well   as   sample   copies   and
  3516. subscription information are available from
  3517.  
  3518. The Editorial Secretariat, IJNS
  3519. World Scientific Publishing Co. Pte. Ltd.
  3520. 73, Lynton Mead, Totteridge
  3521. London N20 8DH
  3522. ENGLAND
  3523. Telephone: (44)81-446-2461
  3524.  
  3525. or
  3526.  
  3527. World Scientific Publishing Co. Inc.
  3528. Suite 1B
  3529. 1060 Main Street
  3530. River Edge
  3531. New Jersey 07661
  3532. USA
  3533. Telephone: (1)201-487-9655
  3534.  
  3535. or
  3536.  
  3537. World Scientific Publishing Co. Pte. Ltd.
  3538. Farrer Road, P. O. Box 128
  3539. SINGAPORE 9128
  3540. Telephone (65)382-5663
  3541.  
  3542.  
  3543.  
  3544. ------------------------------
  3545.  
  3546. Subject: TR - Training Second-Order Recurrent Neural Networks Using Hints
  3547. From:    omlinc@cs.rpi.edu (Christian Omlin)
  3548. Date:    Fri, 08 May 92 13:22:03 -0500
  3549.  
  3550.  
  3551.  
  3552. The following paper has been placed in the Neuroprose archive.
  3553. Comments and questions are encouraged.
  3554.  
  3555. *******************************************************************
  3556.  
  3557.          --------------------------------------------
  3558.             TRAINING SECOND-ORDER RECURRENT NEURAL
  3559.                     NETWORKS USING HINTS
  3560.          --------------------------------------------
  3561.  
  3562.  
  3563.     C.W. Omlin*                       C.L. Giles
  3564.     Computer Science Department       *NEC Research Institute
  3565.     Rensselaer Polytechnic Institute  4 Independence Way
  3566.     Troy, N.Y. 12180                  Princeton, N.J. 08540
  3567.     omlinc@turing.cs.rpi.edu          giles@research.nj.nec.com
  3568.  
  3569.  
  3570.  
  3571.                          Abstract
  3572.                          --------
  3573.  
  3574. We investigate a method for inserting rules into discrete-time
  3575. second-order recurrent neural networks which are trained to
  3576. recognize regular languages. The rules defining regular languages
  3577. can be expressed in the form of transitions in the corresponding
  3578. deterministic finite-state automaton. Inserting these rules as hints
  3579. into networks with second-order connections is straight-forward.
  3580. Our simulations results show that even weak hints seem to improve
  3581. the convergence time by an order of magnitude.
  3582.  
  3583.  
  3584. (To be published in Machine Learning: Proceedings of the Ninth
  3585. International Conference (ML92),D. Sleeman and P. Edwards (eds.),
  3586. Morgan Kaufmann, San Mateo, CA 1992).
  3587.  
  3588.  
  3589. ********************************************************************
  3590.  
  3591.  
  3592. Filename: omlin.hints.ps.Z
  3593.  
  3594. - ----------------------------------------------------------------
  3595. FTP INSTRUCTIONS
  3596.  
  3597.      unix% ftp archive.cis.ohio-state.edu (or 128.146.8.52)
  3598.      Name: anonymous
  3599.      Password: anything
  3600.      ftp> cd pub/neuroprose
  3601.      ftp> binary
  3602.      ftp> get omlin.hints.ps.Z
  3603.      ftp> bye
  3604.      unix% zcat omlin.hints.ps.Z | lpr
  3605. (or whatever *you* do to print a compressed PostScript file)
  3606. - ----------------------------------------------------------------
  3607.  
  3608.  
  3609. - ----------------------------------------------------------------------------
  3610. Christian W. Omlin                 Troy, NY 12180 USA
  3611. Computer Science Department        Phone: (518) 276-2930 Fax: (518) 276-4033
  3612. Amos Eaton 119                     E-mail: omlinc@turing.cs.rpi.edu
  3613. Rensselaer Polytechnic Institute           omlinc@research.nj.nec.com
  3614. - ----------------------------------------------------------------------------
  3615.  
  3616.  
  3617.  
  3618. ------------------------------
  3619.  
  3620. Subject: TR - connectionist model for commonsense reasoning with rules
  3621. From:    rsun@athos.cs.ua.edu (Ron Sun)
  3622. Date:    Fri, 05 Jun 92 10:09:22 -0600
  3623.  
  3624.  
  3625.  
  3626. TR availble:
  3627.  
  3628.  
  3629.     A Connectionist Model for Commonsense Reasoning Incorporating Rules
  3630.     and Similarities
  3631.  
  3632.  
  3633.  
  3634.                                                         by Ron Sun
  3635.  
  3636. For the purpose of modeling commonsense reasoning, we investigate
  3637. connectionist models of rule-based reasoning, and show that while such
  3638. models can usually carry out reasoning in exactly the same way as
  3639. symbolic systems, they have more to offer in terms of commonsense
  3640. reasoning.  A connectionist architecture, {\sc CONSYDERR}, is proposed
  3641. for capturing certain commonsense reasoning competence, which partially
  3642. remedies the brittleness problem in traditional rule-based systems.  The
  3643. architecture employs a two-level, dual representational scheme, which
  3644. utilizes both localist and distributed representations and explores the
  3645. synergy resulting from the interaction between the two.  {\sc CONSYDERR}
  3646. is therefore capable of accounting for many difficult patterns in
  3647. commonsense reasoning with this simple combination of the two levels.
  3648. This work also shows that connectionist models of reasoning are not just
  3649. ``implementations" of their symbolic counterparts, but better
  3650. computational models of commonsense reasoning.
  3651.  
  3652.  
  3653.  
  3654.  
  3655. It is FTPable from archive.cis.ohio-state.edu
  3656.   in: pub/neuroprose (Courtesy of Jordan Pollack)
  3657. No hardcopy available.
  3658.  
  3659.  
  3660. FTP procedure:
  3661.         unix> ftp archive.cis.ohio-state.edu (or 128.146.8.52)
  3662.         Name: anonymous
  3663.         Password: neuron
  3664.         ftp> cd pub/neuroprose
  3665.         ftp> binary
  3666.         ftp> get sun.ka.ps.Z
  3667.         ftp> quit
  3668.         unix> uncompress sun.ka.ps.Z
  3669.         unix> lpr sun.ka.ps (or however you print postscript)
  3670.  
  3671.  
  3672.  
  3673.  
  3674. ------------------------------
  3675.  
  3676. Subject: Paper - Logics and Variables in Connectionist Models
  3677. From:    rsun@athos.cs.ua.edu (Ron Sun)
  3678. Date:    Fri, 05 Jun 92 10:09:35 -0600
  3679.  
  3680.  
  3681.                     Beyond Associative Memories:
  3682.              Logics and Variables in Connectionist Models
  3683.  
  3684.  
  3685.                              Ron Sun
  3686.  
  3687.  
  3688.                             abstract
  3689.  
  3690. This paper demonstrates the role of connectionist (neural network) models
  3691. in reasoning beyond that of an associative memory.  First we show that
  3692. there is a connection between propositional logics and the weighted-sum
  3693. computation customarily used in connectionist models.  Specifically, the
  3694. weighted-sum computation can handle Horn clause logic and Shoham's logic
  3695. as special cases. Secondly, we show how variables can be incorporated
  3696. into connectionist models to enhance their representational power.  We
  3697. devise solutions to the connectionist variable binding problem to enable
  3698. connectioninst networks to handle variables and dynamic bindings in
  3699. reasoning.  A new model, the Discrete Neuron formalism, is employed for
  3700. dealing with the variable binding problem, which is an extension of the
  3701. weighted-sum models.  Formal definitions are presented, and examples are
  3702. analyzed in details.
  3703.  
  3704.  
  3705.     To appear in: Information Sciences,
  3706.         special issues on neural nets and AI
  3707.  
  3708.  
  3709.  
  3710. It is FTPable from archive.cis.ohio-state.edu
  3711.   in: pub/neuroprose
  3712. No hardcopy available.
  3713.  
  3714.  
  3715. FTP procedure:
  3716.         unix> ftp archive.cis.ohio-state.edu (or 128.146.8.52)
  3717.         Name: anonymous
  3718.         Password: neuron
  3719.         ftp> cd pub/neuroprose
  3720.         ftp> binary
  3721.         ftp> get sun.beyond.ps.Z
  3722.         ftp> quit
  3723.         unix> uncompress sun.beyond.ps.Z
  3724.         unix> lpr sun.beyond.ps (or however you print postscript)
  3725.  
  3726.  
  3727.  
  3728. ------------------------------
  3729.  
  3730. Subject: TR - Fuzzy Evidential Logic: A Model of Causality for Commonsense
  3731.  Reasoning}
  3732. From:    rsun@athos.cs.ua.edu (Ron Sun)
  3733. Date:    Fri, 05 Jun 92 10:09:48 -0600
  3734.  
  3735.  
  3736. TR availble:
  3737.  
  3738.       Fuzzy  Evidential Logic: A Model of Causality for Commonsense Reasoning}
  3739.  
  3740.  
  3741.                                        Ron Sun
  3742.  
  3743. This paper proposes a fuzzy evidential model for commonsense causal
  3744. reasoning.  After an analysis of the advantages and limitations of
  3745. existing accounts of causality, a generalized rule-based model FEL ({\it
  3746. Fuzzy Evidential Logic}) is proposed that takes into account the
  3747. inexactness and the cumulative evidentiality of commonsense reasoning.
  3748. It corresponds naturally to a neural (connectionist) network.  Detailed
  3749. analyses are performed regarding how the model handles commonsense causal
  3750. reasoning.
  3751.  
  3752.  
  3753. To appear in Proc. of 14th Coggnitive Science Conference, 1992
  3754. - ----------------------------------------------------------------
  3755.  
  3756. It is FTPable from archive.cis.ohio-state.edu
  3757.   in: pub/neuroprose (Courtesy of Jordan Pollack)
  3758. No hardcopy available.
  3759.  
  3760.  
  3761. FTP procedure:
  3762.         unix> ftp archive.cis.ohio-state.edu (or 128.146.8.52)
  3763.         Name: anonymous
  3764.         Password: neuron
  3765.         ftp> cd pub/neuroprose
  3766.         ftp> binary
  3767.         ftp> get sun.cogsci92.ps.Z
  3768.         ftp> quit
  3769.         unix> uncompress sun.cogsci92.ps.Z
  3770.         unix> lpr sun.cogsci92.ps (or however you print postscript)
  3771.  
  3772.  
  3773.  
  3774.  
  3775.  
  3776.  
  3777. ------------------------------
  3778.  
  3779. Subject: Preprint available: A network to velocity vector-field correction
  3780. From:    Alfred_Nischwitz <alfred@lnt.e-technik.tu-muenchen.de>
  3781. Date:    Thu, 11 Jun 92 17:04:12 +0100
  3782.  
  3783.  
  3784. The following paper has been accepted for publication in the proceedings
  3785. of the International Conference on Artificial Neural Networks '92 in
  3786. Brighton:
  3787.  
  3788.         Relaxation in 4D state space - A competitive network
  3789.         approach to object-related velocity vector-field correction
  3790.  
  3791.  
  3792. by  Helmut Gluender       Institut fuer Medizinische Psychologie
  3793.                           Ludwig-Maximilians-Universitaet
  3794.                           Goethestrasse 31, D-8000 Muenchen 2, Germany
  3795.  
  3796. and Astrid Lehmann        Lehrstuhl fuer Nachrichtentechnik
  3797.                           Technische Universitaet Muenchen
  3798.                           Arcisstrasse 21, D-8000 Muenchen 2, Germany
  3799.  
  3800. ABSTRACT:
  3801.  
  3802. A standard principle of (energy-)minimization is applied to the
  3803. problem of visual motion analysis. In contrast to well-known
  3804. mathematical optimization procedures and universal optimizing
  3805. networks it is proposed to use a problem-adapted network
  3806. architecture. Owing to the bilocal coincidence-type motion
  3807. detector considered here the task of object-related motion
  3808. analysis appears as a geometric correspondence problem. Hence,
  3809. the correct spatio-temporal correspondeces between elements in
  3810. consecutive images must be selected from all possible ones. This
  3811. is performed by neighborhood operations that are repeatedly
  3812. applied to the instantaneous signal representation in the
  3813. space/velocity-domain until an estimate of the actual flow-field
  3814. is reached.
  3815.  
  3816. Hardcopies of the paper are available. Please send requests
  3817. to the following address in Germany:
  3818.  
  3819.         Helmut Gluender
  3820.         Institut fuer Medizinische Psychologie
  3821.         Ludwig-Maximilians-Universitaet
  3822.         Goethestrasse 31, D-8000 Muenchen 2, Germany
  3823.  
  3824. or via email to:
  3825.         alfred@lnt.e-technik.tu-muenchen.de
  3826.  
  3827. communicated by Alfred Nischwitz
  3828.  
  3829.  
  3830. ------------------------------
  3831.  
  3832. Subject: neural-oscillator network, reprints available
  3833. From:    "Lambert Schomaker <SCHOMAKER@NICI.KUN.NL>" <SCHOMAKER@NICI.KUN.NL>
  3834. Date:    Wed, 17 Jun 92 10:42:00 +0700
  3835.  
  3836. []
  3837.  Reprints of the following publication are available:
  3838.  
  3839.   Schomaker, L.R.B., 1992. A neural-oscillator network model of
  3840.   temporal pattern generation. Human Movement Science 11,  181-192.
  3841.  
  3842.   Abstract.
  3843.  
  3844.  Most contemporary neural network models deal with essentially static,
  3845.  perceptual problems of classification and transformation. Models such as
  3846.  multi-layer feedforward perceptrons generally do not incorporate time as an
  3847.  essential dimension. Where time is involved, the proposed solutions suffer
  3848.  from serious limitations. The TDNN solution for the representation of time is
  3849.  limited by its a priori fixed time window, whereas recurrent networks of the
  3850.  Jordan or Elman kind are particularly difficult to train. Biological neural
  3851.  networks, however, are inherently temporal systems. In modelling motor
  3852.  behaviour, it is essential to have models that are able to produce temporal
  3853.  patterns of varying duration and complexity. A model is proposed, based on a
  3854.  network of pulse oscillators consisting of neuron/interneuron (NiN) pairs.
  3855.  Due to the inherent temporal properties, a simple NiN net, taught by a
  3856.  pseudo-Hebbian learning scheme, could be used in simulating handwriting
  3857.  pen-tip displacement of individual letters.
  3858.  
  3859.  
  3860.  
  3861. ------------------------------
  3862.  
  3863. Subject: ALOPEX algorithm solves the MONK's problems
  3864. From:    unni@neuro.cs.gmr.com (K.P.Unnikrishnan)
  3865. Date:    Thu, 18 Jun 92 13:30:36 -0500
  3866.  
  3867.  
  3868. In one of the recent issues of 'Neuron Digest', S.B. Thrun had reported
  3869. performance comparisons of different learning algorithms, (both machine
  3870. learning and neural network), on the MONK problems. Though a number of
  3871. algorithms (for example, AQ17-DCI, AQ17-HCI, AQ15-GA, Assistant
  3872. Professional, Backpropagation and Cascade correlation) were found to give
  3873. 100% correct results on two of the three sets of the problems, none of
  3874. the algorithms gave 100% correct classifications for all the three data
  3875. sets. We have found that a multi-layer perceptron trained using the
  3876. ALOPEX algorithm gives 100% correct classification of all three data
  3877. sets.
  3878.  
  3879. The details of the ALOPEX algorithm can be found in the paper titled
  3880. 'LEARNING IN CONNECTIONIST NETWORKS USING THE ALOPEX ALGORITHM' (Proc.
  3881. IJCNN '92, pp.  926-931). A copy of the this paper has been placed at the
  3882. NEUROPROSE ftp archive under the name unni.alopex.ps.Z. If you would like
  3883. a copy of the simulation program, send a note to unni@neuro.cs.gmr.com
  3884.  
  3885. K.P. Unnikrishnan
  3886. GM Research Labs.
  3887.  
  3888.  
  3889. ABSTRACT
  3890. - ----------
  3891. LEARNING IN CONNECTIONIST NETWORKS USING THE ALOPEX ALGORITHM
  3892.  
  3893. K. P. Unnikrishnan & K. P. Venugopal
  3894.  
  3895. We describe the Alopex algorithm as a universal learning algorithm for
  3896. neural networks. The algorithm is stochastic and it can be used for
  3897. learning in networks of any topology, including those with feedback. The
  3898. neurons could contain any transfer function and the learning could
  3899. involve minimization of any error measure. The efficacy of the algorithm
  3900. is investigated by applying it on multilayer perceptrons to solve
  3901. problems such as XOR, parity and encoder. These results are compared with
  3902. that ones obtained using back- propagation learning algorithm. The
  3903. scaling properties of Alopex are studied using the encoder problem of
  3904. different sizes. Taking the specific case of XOR problem, it is shown
  3905. that a smoother error surface, with fewer local minima, could be obtained
  3906. by using an information theoretic error measure. An appropriate
  3907. 'annealing' scheme for the algorithm is described and it is shown that
  3908. the Alopex can escape out of the local minima.
  3909.  
  3910.  
  3911. FTP INSTRUCTIONS
  3912. - ----------------
  3913. neuro% ftp archive.cis.ohio-state.edu
  3914. Name: anonymous
  3915. Password: guest
  3916. ftp> binary
  3917. ftp> cd pub/neuroprose
  3918. ftp> get unni.alopex.ps.Z
  3919. ftp> quit
  3920. neuro% uncompress unni.alopex.ps.Z
  3921. neuro% lpr unni.alopex.ps
  3922.  
  3923.  
  3924. ------------------------------
  3925.  
  3926. Subject: TR - Modelling the Development of Topography and Ocular Dominance
  3927. From:    Geoffrey Goodhill <gjg@cns.edinburgh.ac.uk>
  3928. Date:    Tue, 23 Jun 92 18:49:54 +0000
  3929.  
  3930. The following technical report version of my thesis is now available
  3931. in neuroprose:
  3932.  
  3933.              Correlations, Competition, and Optimality:
  3934.       Modelling the Development of Topography and Ocular Dominance
  3935.  
  3936.                            CSRP 226
  3937.  
  3938.                        Geoffrey Goodhill
  3939.             School of Cognitive and Computing Science
  3940.                       University Of Sussex
  3941.  
  3942.                            ABSTRACT
  3943.  
  3944. There is strong biological evidence that the same mechanisms underly
  3945. the formation of both topography and ocular dominance in the visual
  3946. system. However, previous computational models of visual development
  3947. do not satisfactorily address both of these phenomena
  3948. simultaneously. In this thesis we discuss in detail several
  3949. models of visual development, focussing particularly on the form
  3950. of correlations within and between eyes.
  3951.  
  3952. Firstly, we analyse the "correlational" model for ocular dominance
  3953. development recently proposed in [Miller, Keller & Stryker 1989] .
  3954. This model was originally presented for the case of identical
  3955. correlations within each eye and zero correlations between the eyes.
  3956. We relax these assumptions by introducing perturbative correlations
  3957. within and between eyes, and show that (a) the system is unstable to
  3958. non-identical perturbations in each eye, and (b) the addition of small
  3959. positive correlations between the eyes, or small negative correlations
  3960. within an eye, can cause binocular solutions to be favoured over
  3961. monocular solutions.
  3962.  
  3963. Secondly, we extend the elastic net model of [Goodhill 1988, Goodhill
  3964. and Willshaw 1990] for the development of topography and ocular
  3965. dominance, in particular considering its behaviour in the
  3966. two-dimensional case. We give both qualitative and quantitative
  3967. comparisons with the performance of an algorithm based on the
  3968. self-organizing feature map of Kohonen, and show that in general the
  3969. elastic net performs better. In addition we show that (a) both
  3970. algorithms can reproduce the effects of monocular deprivation, and (b)
  3971. that a global orientation for ocular dominance stripes in the elastic
  3972. net case can be produced by anisotropic boundary conditions in the
  3973. cortex.
  3974.  
  3975. Thirdly, we introduce a new model that accounts for the development of
  3976. topography and ocular dominance when distributed patterns of activity
  3977. are presented simultaneously in both eyes, with significant
  3978. correlations both within and between eyes. We show that stripe width
  3979. in this model can be influenced by two factors: the extent of lateral
  3980. interactions in the postsynaptic sheet, and the degree to which the
  3981. two eyes are correlated. An important aspect of this model is the form
  3982. of the normalization rule to limit synaptic strengths: we analyse this
  3983. for a simple case.
  3984.  
  3985. The principal conclusions of this work are as follows:
  3986.  
  3987. 1. It is possible to formulate computational models that account for
  3988.    (a) both topography and stripe formation, and (b) ocular dominance
  3989.    segregation in the presence of *positive* correlations between
  3990.    the two eyes.
  3991.  
  3992. 2. Correlations can be used as a ``currency'' with which to compare
  3993.    locality within an eye with correspondence between eyes. This
  3994.    leads to the novel prediction that stripe width can be influenced
  3995.    by the degree of correlation between the two eyes.
  3996. Instructions for obtaining by anonymous ftp:
  3997.  
  3998. % ftp cheops.cis.ohio-state.edu
  3999. Name: anonymous
  4000. Password:neuron
  4001. ftp> binary
  4002. ftp> cd pub/neuroprose
  4003. ftp> get goodhill.thesis.tar
  4004. ftp> quit
  4005. % tar -xvf goodhill.thesis.tar  (This creates a directory called thesis)
  4006. % cd thesis
  4007. % more README
  4008.  
  4009. WARNING: goodhill.thesis.tar is 2.4 Megabytes, and the thesis takes up
  4010. 13 Megabytes if all files are uncompressed (there are only 120 pages
  4011. - - the size is due to the large number of pictures). Each file within
  4012. the tar file is individually compressed, so it is not necessary to
  4013. have 13 Meg of spare space in order to print out the thesis.
  4014.  
  4015. The hardcopy version is also available by requesting CSRP 226 from:
  4016.  
  4017. Berry Harper
  4018. School of Cognitive and Computing Sciences
  4019. University of Sussex
  4020. Falmer
  4021. Brighton BN1 9QN
  4022. GREAT BRITAIN
  4023.  
  4024. Please enclose a cheque for either 5 pounds sterling or 10 US dollars,
  4025. made out to "University of Sussex".
  4026.  
  4027.  
  4028. Geoffrey Goodhill
  4029. University of Edinburgh
  4030. Centre for Cognitive Science
  4031. 2 Buccleuch Place
  4032. Edinburgh EH8 9LW
  4033. email: gjg@cns.ed.ac.uk
  4034.  
  4035.  
  4036.  
  4037.  
  4038.  
  4039.  
  4040.  
  4041. ------------------------------
  4042.  
  4043. Subject: Preprint available: A network to velocity vector-field correction
  4044. From:    Alfred_Nischwitz <alfred@lnt.e-technik.tu-muenchen.de>
  4045. Date:    Thu, 02 Jul 92 13:51:37 +0100
  4046.  
  4047.  
  4048. The following paper has been accepted for publication in the proceedings
  4049. of the International Conference on Artificial Neural Networks '92 in
  4050. Brighton:
  4051.  
  4052.         Relaxation in 4D state space - A competitive network
  4053.         approach to object-related velocity vector-field correction
  4054.  
  4055.  
  4056. by  Helmut Gluender       Institut fuer Medizinische Psychologie
  4057.                           Ludwig-Maximilians-Universitaet
  4058.                           Goethestrasse 31, D-8000 Muenchen 2, Germany
  4059.  
  4060. and Astrid Lehmann        Lehrstuhl fuer Nachrichtentechnik
  4061.                           Technische Universitaet Muenchen
  4062.                           Arcisstrasse 21, D-8000 Muenchen 2, Germany
  4063.  
  4064. ABSTRACT:
  4065.  
  4066. A standard principle of (energy-)minimization is applied to the
  4067. problem of visual motion analysis. In contrast to well-known
  4068. mathematical optimization procedures and universal optimizing
  4069. networks it is proposed to use a problem-adapted network
  4070. architecture. Owing to the bilocal coincidence-type motion
  4071. detector considered here the task of object-related motion
  4072. analysis appears as a geometric correspondence problem. Hence,
  4073. the correct spatio-temporal correspondeces between elements in
  4074. consecutive images must be selected from all possible ones. This
  4075. is performed by neighborhood operations that are repeatedly
  4076. applied to the instantaneous signal representation in the
  4077. space/velocity-domain until an estimate of the actual flow-field
  4078. is reached.
  4079.  
  4080. Hardcopies of the paper are available. Please send requests
  4081. to the following address in Germany:
  4082.  
  4083.         Helmut Gluender
  4084.         Institut fuer Medizinische Psychologie
  4085.         Ludwig-Maximilians-Universitaet
  4086.         Goethestrasse 31, D-8000 Muenchen 2, Germany
  4087.  
  4088. or via email to:
  4089.         alfred@lnt.e-technik.tu-muenchen.de
  4090.  
  4091. communicated by Alfred Nischwitz
  4092.  
  4093.  
  4094. ------------------------------
  4095.  
  4096. Subject: Neural Chess: Paper Presentation
  4097. From:    David Kanecki <kanecki@cs.uwp.edu>
  4098. Date:    Sun, 12 Jul 92 18:53:47 -0600
  4099.  
  4100. [[ Editor's Note: Long-term readers will remember David's thoughtful
  4101. postings in the past and his long-term work with applying connectionist
  4102. models to the game of chess.  Unfortunately this announcement sat in my
  4103. queue too long for it to be timely.  However, I encourage any you who
  4104. have a serious interest in this problem to get in touch with David.
  4105. Perhaps he will be kind enough to provide a recap of his talk to Digest
  4106. readers? -PM ]]
  4107.  
  4108.  
  4109.                  PAPER PRESENTATION ANNOUNCEMENT
  4110.  
  4111.  
  4112.       "Simulation as an Intelligent, Thinking Computer Program as
  4113.                         Neural Chess"
  4114.  
  4115.  
  4116.                                By
  4117.                 David H. Kanecki, Bio. Sci., A.C.S.
  4118.              40th Summer Computer Simulation Conference
  4119.                     Society for Computer Simulation
  4120.                          July 27-31, 1992
  4121.                        Nugget Hotel, Sparks, NV
  4122.  
  4123.  
  4124.            Group 4, Session 7, Tuesday, July 28, 3:30-5:00
  4125.                Carson Room, Nugget Hotel, Sparks, NV
  4126.  
  4127.  
  4128. In the above presentation, I will present results obtained from my
  4129. ten year development project. In addition, I will present a new methology
  4130. to modelling cognitive reasoning.
  4131.  
  4132.  
  4133. If anyone wishes a copy of this paper or to attend the conference, please
  4134. contact the Society for Computer Simulation, San Diego, CA. As to
  4135. electronic distribution of my paper, I will not have any information until
  4136. I check with the society after August 1st.
  4137.  
  4138. This work is a major breakthrough in intelligent thinking systems that
  4139. can be used for applications of navigation, logistics, etc.
  4140.  
  4141.  
  4142.                             *       *       *
  4143.  
  4144. This conference will present 15 topics of which 2 are related to neural
  4145. network applications. The two topics are intelligent systems, group 3, and
  4146. AI/KBS in simulation, group 4, of which 25 seminars are scheduled.
  4147.  
  4148. "As we learn and teach, we move to the next higher level of intelligence."
  4149.  
  4150. David H. Kanecki, Bio. Sci., A.C.S.
  4151. P.O. Box 93
  4152. Kenosha, WI 53141
  4153. kanecki@cs.uwp.wisc.edu
  4154.  
  4155. ------------------------------
  4156.  
  4157. End of Neuron Digest [Volume 11 Issue 47]
  4158. ****************************************
  4159. Received: from BUACCA by BUACCA.BU.EDU (Mailer R2.08 PTF009) with BSMTP id
  4160.  3295; Wed, 18 Aug 93 20:32:01 EDT
  4161. Received: from noc4.dccs.upenn.edu by BUACCA.BU.EDU (IBM VM SMTP R1.2.1) with
  4162.  TCP; Wed, 18 Aug 93 20:31:57 EDT
  4163. Received: from CATTELL.PSYCH.UPENN.EDU by noc4.dccs.upenn.edu
  4164.     id AA24311; Wed, 18 Aug 93 20:01:25 -0400
  4165. Return-Path: <marvit@cattell.psych.upenn.edu>
  4166. Received: from LOCALHOST by cattell.psych.upenn.edu
  4167.     id AA07519; Wed, 18 Aug 93 18:59:31 EDT
  4168. Posted-Date: Wed, 18 Aug 93 18:58:54 -0400
  4169. From: "Neuron-Digest Moderator" <neuron-request@CATTELL.PSYCH.UPENN.EDU>
  4170. To: Neuron-Distribution:;
  4171. Subject: Neuron Digest V11 #48 (tech reports, books, papers)
  4172. Reply-To: "Neuron-Request" <neuron-request@CATTELL.PSYCH.UPENN.EDU>
  4173. X-Errors-To: "Neuron-Request" <neuron-request@psych.upenn.edu>
  4174. Organization: University of Pennsylvania
  4175. Date: Wed, 18 Aug 93 18:58:54 -0400
  4176. Message-Id: <7511.745714734@cattell.psych.upenn.edu>
  4177. Sender: marvit@cattell.psych.upenn.edu
  4178.  
  4179. Neuron Digest   Wednesday, 18 Aug 1993
  4180.                 Volume 11 : Issue 48
  4181.  
  4182. Today's Topics:
  4183.      ANNs for Noise Filtering, Edge Detect. and Signature Extraction
  4184.         Paper available: `Statistical Aspects of Neural Networks'
  4185.     Preprint available: A network to velocity vector-field correction
  4186.         Several papers (Simulated Annealing, Review, NP-hardness)
  4187.          TR - VISUAL ATTENTION AND INVARIANT PATTERN RECOGNITION
  4188.      2 TRs - Iterated Function Systems, Approximations to Functions
  4189.                     Book - The Global Dynamics of CA
  4190.                    IJNS contents vol. 3 issues 2 and 3
  4191.          Preprint available: Synchronization and label-switching
  4192.          VLSI Neural Network Application in High Energy Physics
  4193.     Preprint available: A network to velocity vector-field correction
  4194.           Genetic Synthesis of Unsupervised Learning Algorithms
  4195.                 Preprint Available: Random-Walk Learning
  4196.  
  4197.  
  4198. Send submissions, questions, address maintenance, and requests for old
  4199. issues to "neuron-request@psych.upenn.edu". The ftp archives are
  4200. available from psych.upenn.edu (130.91.68.31). Back issues requested by
  4201. mail will eventually be sent, but may take a while.
  4202.  
  4203. ----------------------------------------------------------------------
  4204.  
  4205. Subject: ANNs for Noise Filtering, Edge Detect. and Signature Extraction
  4206. From:    speeba@cardiff.ac.uk (Eduardo Bayro)
  4207. Date:    Sat, 11 Jul 92 19:24:12 +0000
  4208.  
  4209. /****NEURAL COMPUTING****IMAGE PROCESING*****NEURAL COMPUTING*********/
  4210.         Journal Systems Engineering (1992)2, Springer Verlag
  4211.  
  4212.         NEURAL COMPUTING FOR NOISE FILTERING, EDGE DETECTION
  4213.         AND SIGNATURE EXTRACTION
  4214.  
  4215.         D.T. Pham and E.J. Bayro-Corrochano
  4216.  
  4217.         This paper describes two applications of neural computing
  4218.   to low-level image processing. The first application concerns noise
  4219.   filtering and edge detection. A neural processor employing back-
  4220.   propagation multi-layer perceptrons is presented which has been shown
  4221.   quantitatively to perform better than well known conventional edge
  4222.   detectors. The second application is in feature extraction. A mask set
  4223.   has been designed for picking up basic geometrical details of skele-
  4224.   tonised contours. The use of the masks in a net which implements the
  4225.   n-tuple contour analysis technique is reported.
  4226.  
  4227. Correspondence and offprint requests to:
  4228.  
  4229.         D.T. Pham
  4230.         e-mail: phamdt@uk.ac.cardiff
  4231.         E.J. Bayro-Corrochano
  4232.         e-mail: speeba@uk.ac.cardif
  4233.  
  4234.         Intelligent Systems Research Laboratory, School of
  4235.         Electrical, Electronic and Systems Engineering,
  4236.         University of Wales, College of Cardiff, P.O. Box 904,
  4237.         Cardiff CF1 3YH, U.K.
  4238.  
  4239. /****NEURAL COMPUTING****IMAGE PROCESING*****NEURAL COMPUTING*********/
  4240.  
  4241.  
  4242. ------------------------------
  4243.  
  4244. Subject: Paper available: `Statistical Aspects of Neural Networks'
  4245. From:    ripley@statistics.oxford.ac.uk (Prof. Brian Ripley)
  4246. Date:    Mon, 20 Jul 92 11:46:51 +0000
  4247.  
  4248. [This corrects a message sent a hour or so ago. We have re-organized to
  4249. a more logical directory.]
  4250.  
  4251. A paper, with principal audience statisticians, entitled
  4252.  
  4253.         Statistical Aspects of Neural Networks
  4254.  
  4255. is available by anonymous ftp from
  4256.  
  4257.         markov.stats.ox.ac.uk (192.76.20.1 or 129.67.1.190)
  4258.  
  4259. at pub/neural/papers/ripley.ps.Z (336kB), with abstract ripley.abstract as
  4260. follows:
  4261.  
  4262. Neural networks have been a much-publicized topic of research in the
  4263. last five years, and are now beginning to be used in a wide range of
  4264. subject areas traditionally thought by statisticians to be their
  4265. domain. This paper explores the basic ideas of neural networks from the
  4266. point of view of a statistician, and compares some of their
  4267. applications with those of traditional and modern methods of statistics
  4268. and pattern recognition.
  4269.  
  4270. Neural networks are mainly used as non-linear approximations to
  4271. multivariable functions or as classifiers.  They are non-parametric in
  4272. character in that no subject-domain knowledge is incorporated in the
  4273. modelling process, and the parameters are estimated using algorithms
  4274. which at least in principle can be computed on loosely-coupled parallel
  4275. computers.  We argue that the modelling-based approach traditional in
  4276. statistics and pattern recognition can be at least as effective, and
  4277. often more so. This is illustrated by data on the areas in Zimbabwe
  4278. environmentally suitable for Tsetse flies.
  4279.  
  4280.  
  4281. Invited lectures for SemStat (S\'eminaire Europ\'een de
  4282. Statistique), Sandbjerg, Denmark, 25-30 April 1992. To appear in the
  4283. proceedings to be published by Chapman & Hall in January 1993.
  4284.  
  4285. .----------------------------------------------------.
  4286. |      Prof. Brian D. Ripley                         |
  4287. |      Dept. of Statistics,                          |
  4288. |      University of Oxford,                         |
  4289. |      1 South Parks Road,                           |
  4290. |      Oxford OX1 3TG, UK                            |
  4291. |                                                    |
  4292. |      ripley@uk.ac.ox.stats (JANET)                 |
  4293. |      ripley@stats.ox.ac.uk (Internet)              |
  4294. `----------------------------------------------------'
  4295.  
  4296.  
  4297.  
  4298. ------------------------------
  4299.  
  4300. Subject: Preprint available: A network to velocity vector-field correction
  4301. From:    Alfred_Nischwitz <alfred@lnt.e-technik.tu-muenchen.de>
  4302. Date:    Mon, 20 Jul 92 14:24:33 +0100
  4303.  
  4304. The following paper has been accepted for publication in the
  4305. proceedings of the International Conference on
  4306. Artificial Neural Networks '92 in Brighton:
  4307.  
  4308.         Relaxation in 4D state space - A competitive network
  4309.         approach to object-related velocity vector-field correction
  4310.  
  4311.  
  4312. by  Helmut Gluender       Institut fuer Medizinische Psychologie
  4313.                           Ludwig-Maximilians-Universitaet
  4314.                           Goethestrasse 31, D-8000 Muenchen 2, Germany
  4315.  
  4316. and Astrid Lehmann        Lehrstuhl fuer Nachrichtentechnik
  4317.                           Technische Universitaet Muenchen
  4318.                           Arcisstrasse 21, D-8000 Muenchen 2, Germany
  4319.  
  4320. ABSTRACT:
  4321.  
  4322. A standard principle of (energy-)minimization is applied to the
  4323. problem of visual motion analysis. In contrast to well-known
  4324. mathematical optimization procedures and universal optimizing
  4325. networks it is proposed to use a problem-adapted network
  4326. architecture. Owing to the bilocal coincidence-type motion
  4327. detector considered here the task of object-related motion
  4328. analysis appears as a geometric correspondence problem. Hence,
  4329. the correct spatio-temporal correspondeces between elements in
  4330. consecutive images must be selected from all possible ones. This
  4331. is performed by neighborhood operations that are repeatedly
  4332. applied to the instantaneous signal representation in the
  4333. space/velocity-domain until an estimate of the actual flow-field
  4334. is reached.
  4335.  
  4336. Hardcopies of the paper are available. Please send requests
  4337. to the following address in Germany:
  4338.  
  4339.         Helmut Gluender
  4340.         Institut fuer Medizinische Psychologie
  4341.         Ludwig-Maximilians-Universitaet
  4342.         Goethestrasse 31, D-8000 Muenchen 2, Germany
  4343.  
  4344. or via email to:
  4345.         alfred@lnt.e-technik.tu-muenchen.de
  4346.  
  4347. communicated by Alfred Nischwitz
  4348.  
  4349.  
  4350. ------------------------------
  4351.  
  4352. Subject: Several papers (Simulated Annealing, Review, NP-hardness)
  4353. From:    Xin Yao <Xin.Yao@dbce.csiro.au>
  4354. Organization: CSIRO, Div. Building Constr. and Eng'ing, Melb., Australia
  4355. Date:    Fri, 24 Jul 92 14:27:37 -0500
  4356.  
  4357.  
  4358. The following papers have been put in neuroprose archive. Thanks to Jordan
  4359. Pollack. Limited number of hard copies can be obtained by sending a note,
  4360. specifying the author and title, to:
  4361.  
  4362.         Smail: Ms. Cathy Bowditch, The Editor
  4363.                CSIRO Division of Building, Construction and Engineering
  4364.                PO Box 56, Highett, Vic 3190, Australia
  4365.         Email: cathy@mel.dbce.csiro.au
  4366.  
  4367. (1) X. Yao, "A Review of Evolutionary Artificial Neural Networks," Accepted by
  4368.     International Journal of Intelligent Systems, to appear.
  4369.     Filename in neuroprose: yao.eann.ps.Z
  4370. (2) X. Yao, "Finding Approximate Solutions to NP-hard Problems by Neural
  4371.     Networks Is Hard," Information Processing Letters, 41:93--98, 1992.
  4372.     Filename:               yao.complex.ps.Z
  4373. (3) X. Yao, "Simulated Annealing with Extended Neighbourhood," International
  4374.     Journal of Computer Mathematics, 40:169--189, 1991.
  4375.     Filename:               yao.sa_en.ps.Z
  4376.  
  4377.  
  4378. ftp Instructions:
  4379.  
  4380. unix> ftp archive.cis.ohio-state.edu (or 128.146.8.52)
  4381. Name: anonymous
  4382. Password: (your email address)
  4383. ftp> cd pub/neuroprose
  4384. ftp> binary
  4385. ftp> get yao.filename.ps.Z   (where filename is one of the above three)
  4386. ftp> quit
  4387.  
  4388. unix>uncompress yao.filename.ps.Z
  4389. unix>lpr yao.filename.ps (or whatever you used to print .ps files)
  4390.  
  4391.  
  4392. - --
  4393. | Xin Yao            CSIRO Division of Building, Construction and Engineering |
  4394. |                    Post Office Box 56, Highett, Victoria, Australia   3190  |
  4395. | Internet: xin@mel.dbce.csiro.au               Fax: +61 3 252 6244           |
  4396. | Tel: +61 3 252 6000 (swtichboard)  +61 3 252 6374 (office)                  |
  4397. |_____________________________________________________________________________|
  4398.  
  4399.  
  4400. ------------------------------
  4401.  
  4402. Subject: TR - VISUAL ATTENTION AND INVARIANT PATTERN RECOGNITION
  4403. From:    bruno@cns.caltech.edu (Bruno Olshausen)
  4404. Date:    Fri, 07 Aug 92 22:51:01 -0800
  4405.  
  4406. The following technical report has been archived for public ftp:
  4407.  
  4408. - ----------------------------------------------------------------------
  4409.  A NEURAL MODEL OF VISUAL ATTENTION AND INVARIANT PATTERN RECOGNITION
  4410.  
  4411.        Bruno Olshausen, Charles Anderson*, and David Van Essen
  4412.  
  4413.                 Computation and Neural Systems Program
  4414.                      Division of Biology, 216-76
  4415.                                  and
  4416.                       *Jet Propulsion Laboratory
  4417.                   California Institute of Technology
  4418.                           Pasadena, CA 91125
  4419.  
  4420.                              CNS Memo 18
  4421.  
  4422. Abstract.  We present a biologically plausible model of an attentional
  4423. mechanism for forming position- and scale-invariant object
  4424. representations.  The model is based on using control neurons to
  4425. dynamically modify the synaptic strengths of intra-cortical
  4426. connections so that information from a windowed region of primary
  4427. visual cortex, V1, is routed to higher cortical areas while preserving
  4428. information about spatial relationships.  This paper describes details
  4429. of a neural circuit for routing visual information and provides a
  4430. solution for controlling the circuit as part of an autonomous
  4431. attentional system for recognizing objects.  The model is designed to
  4432. be consistent with known neurophysiology, neuroanatomy, and
  4433. psychophysics, and it makes a variety of experimentally testable
  4434. predictions.
  4435. - ----------------------------------------------------------------------
  4436.  
  4437. Obtaining the paper via anonymous ftp:
  4438.  
  4439. 1. ftp to kant.cns.caltech.edu (131.215.135.31)
  4440.  
  4441. 2. login as 'anonymous' and type your email address as the password
  4442.  
  4443. 3. cd to pub/cnsmemo.18
  4444.  
  4445. 4. set transfer mode to binary (type 'binary' at the prompt)
  4446.  
  4447. 5. get either 'paper-apple.tar.Z' or 'paper-sparc.tar.Z'.  The first
  4448. will print on the Apple LaserWriter II, the other on the SPARCprinter.
  4449. (They may work on other PostScript printers too, but I can't guarantee it.)
  4450.  
  4451. 6. quit from ftp, and then uncompress and detar the file on your
  4452. machine by typing
  4453.  
  4454.         uncompress -c filename.tar.Z | tar xvf -
  4455.  
  4456. 7. remove the tarfile and print out the three postscript files
  4457. (paper1.ps, paper2.ps and paper3.ps), beginning with paper3.ps.
  4458.  
  4459. If you don't have an appropriate PostScript printer, then send a
  4460. request for a hardcopy to bruno@cns.caltech.edu.
  4461.  
  4462.  
  4463. ------------------------------
  4464.  
  4465. Subject: 2 TRs - Iterated Function Systems, Approximations to Functions
  4466. From:    rdj@demos.lanl.gov (Roger D. Jones)
  4467. Date:    Mon, 10 Aug 92 10:35:07 -0700
  4468.  
  4469.  
  4470. TECHNICAL REPORTS AVAILABLE
  4471.  
  4472. A RECURRENT NETWORK FOR THE SOLUTION TO THE INVERSE PROBLEM
  4473. OF ITERATED FUNCTION SYSTEMS
  4474. O. L. Bakalis, R. D. Jones, Y. C. Lee, and B. J. Travis
  4475.  
  4476. ON THE EXISTENCE AND STABILITY OF CERTAIN TYPES OF NEUROMORPHIC
  4477. APPROXIMATIONS TO FUNCTIONS
  4478. R. K. Prasanth, R. D. Jones, and Y. C. Lee
  4479.  
  4480. Please send surface mail address to rdj@lanl.gov
  4481. or
  4482. Roger D. Jones
  4483. MS-F645
  4484. Los Alamos National Laboratory
  4485. Los Alamos, New Mexico 87545
  4486.  
  4487.  
  4488. ------------------------------
  4489.  
  4490. Subject: Book - The Global Dynamics of CA
  4491. From:    Andrew Wuensche <100020.2727@CompuServe.COM>
  4492. Date:    13 Aug 92 09:06:07 -0500
  4493.  
  4494. I would like to announce the following book, now available.
  4495.  
  4496. thanks
  4497.  
  4498. Andy Wuensche
  4499. wuensch@santafe.edu
  4500.  
  4501. THE GLOBAL DYNAMICS OF CELLULAR AUTOMATA
  4502. An Atlas of Basin of Attraction Fields of
  4503. One-Dimensional Cellular Automata.
  4504.  
  4505. Andrew Wuensche
  4506. Mike Lesser
  4507.  
  4508. Foreword by Chris Langton
  4509.  
  4510. Diskette included for PC-compatible computers.
  4511.  
  4512. Santa Fe Institute Studies in the Sciences of Complexity
  4513. Reference Vol 1
  4514. Addison-Wesley Publishing Co. Reading MA, phone:(800) 447 2226
  4515. IBSN 0-201-55740-1   price: about $54
  4516.  
  4517. Abstract:
  4518. The Global Dynamics of Cellular Automata introduces a new global
  4519. perspective for the study of discrete dynamical systems, analogous to
  4520. the phase portrait in continuous dynamical systems.
  4521.    As well as looking at the unique trajectory of the systems future,
  4522. an algorithm is presented that directly computes the multiple merging
  4523. trajectories that may have constituted the system's past. A given set
  4524. of cellular automata parameters will, in a sense, crystallize state
  4525. space into a set of basins of attraction that will typically have the
  4526. topology of branching trees rooted on attractor cycles. The explicit
  4527. portraits of these mathematical objects are made accessible. The Atlas
  4528. presents two complete classes of such objects: for the 3-neighbour
  4529. rules (elementary rules) and for the 5-neighbour totalystic rules.
  4530.    The book looks in detail at CA architecture and rule systems, and
  4531. the corresponding global dynamics. It is shown that the evolution of CA
  4532. with periodic boundary conditions is bound by general principles
  4533. relating to symmetrys of the circular array. The rule numbering system
  4534. and equivalence classes are reviewed. Symmetry categories, rule
  4535. clusters, limited pre-image rules, and the reverse algorithm are
  4536. introduced. The Z parameter (depending only on the rule table) is
  4537. introduced, reflecting the degree of pre-imaging, or the convergence of
  4538. dynamical flow in state space evident in the basin of attraction
  4539. field. A relationship between the Z parameter, basin field topology,
  4540. and rule behaviour classes is proposed. A genotype-phenotype analogy
  4541. looks at the effect of mutating the rule table to produce mutant basin
  4542. fields.
  4543.    The accompanying software is an interactive research tool capable of
  4544. generating basins of attraction for any of the 2^32 CA rules in
  4545. 5-neighbour rule space (for a range of array size), as well as
  4546. pre-images, space-time patterns and mutation. The operating
  4547. instructions are contained in the book.
  4548.                           * * * * * *
  4549.  
  4550.  
  4551.  
  4552.  
  4553. ------------------------------
  4554.  
  4555. Subject: IJNS contents vol. 3 issues 2 and 3
  4556. From:    BRUNAK@nbivax.nbi.dk
  4557. Date:    30 Oct 92 10:56:54 +0100
  4558.  
  4559. Begin Message:
  4560. - -----------------------------------------------------------------------
  4561.  
  4562.  
  4563. INTERNATIONAL JOURNAL OF NEURAL SYSTEMS
  4564.  
  4565. The International Journal of Neural  Systems  is  a  quarterly  journal
  4566. which covers information processing in natural  and  artificial  neural
  4567. systems. It publishes original contributions on  all  aspects  of  this
  4568. broad subject which involves  physics,  biology,  psychology,  computer
  4569. science and engineering. Contributions include research papers, reviews
  4570. and short communications.  The  journal  presents  a  fresh  undogmatic
  4571. attitude towards this multidisciplinary field with  the  aim  to  be  a
  4572. forum for novel ideas and  improved  understanding  of  collective  and
  4573. cooperative phenomena with computational capabilities.
  4574.  
  4575. ISSN: 0129-0657 (IJNS)
  4576.  
  4577. - ----------------------------------
  4578.  
  4579. Contents of Volume 3, issue number 2 (1992):
  4580.  
  4581.  
  4582. 1.  H.C. Card & C.R. Schneider:
  4583.     Analog CMOS Neural Circuits - In situ Learning.
  4584.  
  4585. 2.  M.W. Goudreau & C.L. Giles:
  4586.     Routing in Random Multistage Interconnections Networks:
  4587.     Comparing Exhaustive Scarch, Greedy and Neural Network Approaches.
  4588.  
  4589. 3.  P.J. Zwietering, E.H. L. Aarts & J. Wessels:
  4590.     Exact Classification with Two-Layered Perceptrons.
  4591.  
  4592. 4.  D. Saad & R. Sasson:
  4593.     Examining the CHIR Algorithm Performance for
  4594.     Multilayer Networks and Continous Input Vectors.
  4595.  
  4596. 5.  I. Ginzberg & D. Horn:
  4597.     Learning the Rule of a Time Series.
  4598.  
  4599. 6.  H.J. Chang, J. Ghosh & K. Liano:
  4600.     A Macroscopic Model of Neural Ensembles:
  4601.     Learning-Induced Oscilliations in a Cell.
  4602.  
  4603. 7.  S. Hejazi, S.M. Bauer & R.A. Spangler:
  4604.     Neural Network Analysis of Thermal Image Data.
  4605.  
  4606. 8.  K.T. Sun & H.C. Fu:
  4607.     A Neural Network Implemantation for the Traffic
  4608.     Control Problem on Crossbar Switch Networks.
  4609.  
  4610.  
  4611.  
  4612. Contents of Volume 3, issue number 3 (1992):
  4613.  
  4614.  
  4615. 1.  J. Reynolds & L. Tarassenko:
  4616.     Spoken Letter Recognition with Neural Networks.
  4617.  
  4618. 2.  Z. Li:
  4619.     Different Retinal Ganglion Cells have Different Functional Goals.
  4620.  
  4621. 3.  O. Shagrir:
  4622.     A Neural Net with Self-Inhibiting Units for the N-Queens Problem.
  4623.  
  4624. 4.  L. Xu, S. Klasa & A. Yuille:
  4625.     Recent Advances on Techniques of Static Feed-forward Networks
  4626.     with Supervised Learning.
  4627.  
  4628. 5.  M-Y. Chow & S.O. Yee:
  4629.     A Measure of Relative Robustness for Feedforward
  4630.     Neural Networks Subject to Small Input Perturbations.
  4631.  
  4632. 6.  F.L. Chung & T. Lee:
  4633.     A Node Pruning Algorithm for Backpropagation Networks.
  4634.  
  4635. 7.  S. Tan, J. Hao & J. Vandewalle:
  4636.     Pattern Storage and Hopfield Neural Assosiative
  4637.     Memory with Hidden Structure.
  4638.  
  4639. - ----------------------------------
  4640.  
  4641.  
  4642. Editorial board:
  4643.  
  4644. B. Lautrup (Niels Bohr Institute, Denmark)  (Editor-in-charge)
  4645. S. Brunak (Technical Univ. of Denmark) (Assistant Editor-in-Charge)
  4646.  
  4647. D. Stork (Stanford) (Book review editor)
  4648.  
  4649. Associate editors:
  4650.  
  4651. J. Alspector (Bellcore)
  4652. B. Baird (Berkeley)
  4653. D. Ballard (University of Rochester)
  4654. E. Baum (NEC Research Institute)
  4655. S. Bjornsson (University of Iceland)
  4656. J. M. Bower (CalTech)
  4657. S. S. Chen (University of North Carolina)
  4658. R. Eckmiller (University of Dusseldorf)
  4659. J. L. Elman (University of California, San Diego)
  4660. M. V. Feigelman (Landau Institute for Theoretical Physics)
  4661. F. Fogelman-Soulie (Paris)
  4662. K. Fukushima (Osaka University)
  4663. A. Gjedde (Montreal Neurological Institute)
  4664. S. Grillner (Nobel Institute for Neurophysiology, Stockholm)
  4665. T. Gulliksen (University of Oslo)
  4666. D. Hammerstrom (Oregon Graduate Institute)
  4667. D. Horn (Tel Aviv University)
  4668. J. Hounsgaard (University of Copenhagen)
  4669. B. A. Huberman (XEROX PARC)
  4670. L. B. Ioffe (Landau Institute for Theoretical Physics)
  4671. P. I. M. Johannesma (Katholieke Univ. Nijmegen)
  4672. M. Jordan (MIT)
  4673. G. Josin (Neural Systems Inc.)
  4674. I. Kanter (Princeton University)
  4675. J. H. Kaas (Vanderbilt University)
  4676. A. Lansner (Royal Institute of Technology, Stockholm)
  4677. A. Lapedes (Los Alamos)
  4678. B. McWhinney (Carnegie-Mellon University)
  4679. M. Mezard (Ecole Normale Superieure, Paris)
  4680. J. Moody (Yale, USA)
  4681. A. F. Murray (University of Edinburgh)
  4682. J. P. Nadal (Ecole Normale Superieure, Paris)
  4683. E. Oja (Lappeenranta University of Technology, Finland)
  4684. N. Parga (Centro Atomico Bariloche, Argentina)
  4685. S. Patarnello (IBM ECSEC, Italy)
  4686. P. Peretto (Centre d'Etudes Nucleaires de Grenoble)
  4687. C. Peterson (University of Lund)
  4688. K. Plunkett (University of Aarhus)
  4689. S. A. Solla (AT&T Bell Labs)
  4690. M. A. Virasoro (University of Rome)
  4691. D. J. Wallace (University of Edinburgh)
  4692. D. Zipser (University of California, San Diego)
  4693.  
  4694. - ----------------------------------
  4695.  
  4696.  
  4697. CALL FOR PAPERS
  4698.  
  4699. Original contributions consistent with the scope  of  the  journal  are
  4700. welcome.  Complete  instructions  as  well   as   sample   copies   and
  4701. subscription information are available from
  4702.  
  4703. The Editorial Secretariat, IJNS
  4704. World Scientific Publishing Co. Pte. Ltd.
  4705. 73, Lynton Mead, Totteridge
  4706. London N20 8DH
  4707. ENGLAND
  4708. Telephone: (44)81-446-2461
  4709.  
  4710. or
  4711.  
  4712. World Scientific Publishing Co. Inc.
  4713. Suite 1B
  4714. 1060 Main Street
  4715. River Edge
  4716. New Jersey 07661
  4717. USA
  4718. Telephone: (1)201-487-9655
  4719.  
  4720. or
  4721.  
  4722. World Scientific Publishing Co. Pte. Ltd.
  4723. Farrer Road, P. O. Box 128
  4724. SINGAPORE 9128
  4725. Telephone (65)382-5663
  4726.  
  4727. - -----------------------------------------------------------------------
  4728.  
  4729. End Message
  4730.  
  4731.  
  4732. ------------------------------
  4733.  
  4734. Subject: Preprint available: Synchronization and label-switching
  4735. From:    Alfred_Nischwitz <alfred@lnt.e-technik.tu-muenchen.de>
  4736. Date:    Wed, 08 Apr 92 19:20:43 +0100
  4737.  
  4738.  
  4739. The following paper has been accepted for publishing in the
  4740. proceedings of the International Conference on
  4741. Artificial Neural Networks '92 in Brighton:
  4742.  
  4743.        SYNCHRONIZATION AND LABEL-SWITCHING IN NETWORKS OF
  4744.              LATERALLY COUPLED MODEL NEURONS
  4745.  
  4746. by  Alfred Nischwitz      Lehrstuhl fuer Nachrichtentechnik
  4747.     Peter Klausner        Technische Universitaet Muenchen
  4748.     Andreas von Oertzen   Arcisstrasse 21, D-8000 Muenchen 2, Germany
  4749. and
  4750.     Helmut Gluender       Institut fuer Medizinische Psychologie
  4751.                           Ludwig-Maximilians-Universitaet
  4752.                           Goethestrasse 31, D-8000 Muenchen 2, Germany
  4753.  
  4754. ABSTRACT:
  4755.  
  4756. Necessary Conditions for the impulse synchronization in non-
  4757. oscillating networks of laterally coupled 'integrate-and-fire'
  4758. model neurons are investigated. The behaviour of such networks
  4759. for homogeneous stimulations as well as for differently stimulated
  4760. subpopulations is studied. In the first case, synchronization
  4761. accurate to fractions of the impulse duration can be achieved by
  4762. either lateral inhibition or lateral excitation and in the second
  4763. case, good and independent synchronization is obtained within
  4764. subpopulations, if they are separated by unstimulated neurons.
  4765.  
  4766. Hardcopies of the paper are available. Please send requests via
  4767. email or to the following address in Germany:
  4768.  
  4769.   Alfred Nischwitz
  4770.   Lehrstuhl fuer Nachrichtentechnik
  4771.   Technische Universitaet Muenchen
  4772.   Arcisstrasse 21, D-8000 Muenchen 2, F.R.Germany
  4773.   email: alfred@lnt.e-technik.tu-muenchen.de
  4774.  
  4775. Alfred Nischwitz
  4776.  
  4777.  
  4778. ------------------------------
  4779.  
  4780. Subject: VLSI Neural Network Application in High Energy Physics
  4781. From:    LINDSEY@FNAL.FNAL.GOV
  4782. Date:    Mon, 13 Apr 92 14:05:53 -0600
  4783.  
  4784.  
  4785.         For those interested in hardware neural network applications,
  4786. copies of the following paper are available via mail or fax. Send requests to
  4787. Clark Lindsey at BITNET%"LINDSEY@FNAL".
  4788.  
  4789.             REAL TIME TRACK FINDING IN A DRIFT CHAMBER WITH A
  4790.                             VLSI NEURAL NETWORK*
  4791.  
  4792.         Clark S. Lindsey (a), Bruce Denby (a), Herman Haggerty (a),
  4793.                         and Ken Johns (b)
  4794.  
  4795.         (a) Fermi National Accelerator Laboratory, P.O. Box 500, Batavia,
  4796.             Illinois 60510.
  4797.         (b) University of Arizona, Dept of Physics, Tucson, Arizona 85721.
  4798.  
  4799.  
  4800.                                ABSTRACT
  4801.  
  4802.         In a test setup, a hardware neural network determined track parameters
  4803.   of charged particles traversing a drift chamber. Voltages proportional
  4804.   to the drift times in 6 cells of the 3-layer chamber were inputs to the
  4805.   Intel ETANN neural network chip which had been trained to give the
  4806.   slope and intercept of tracks. We compare network track parameters to
  4807.   those obtained from off-line track fits. To our knowledge this is the
  4808.   first on-line application of a VLSI neural network to a high energy
  4809.   physics detector. This test explored the potential of the chip and the
  4810.   practical problems of using it in a real world setting. We compare chip
  4811.   performance to a neural network simulation on a conventional computer.
  4812.   We discuss possible applications of the chip in high energy physics
  4813.   detector triggers.
  4814.  
  4815.             Accepted by Nuclear Instruments and Methods, Section A
  4816.  
  4817.  * FERMILAB-Pub-92/55
  4818.  
  4819.  
  4820. ------------------------------
  4821.  
  4822. Subject: Preprint available: A network to velocity vector-field correction
  4823. From:    Alfred_Nischwitz <alfred@lnt.e-technik.tu-muenchen.de>
  4824. Date:    Thu, 30 Apr 92 09:49:47 +0100
  4825.  
  4826. The following paper has been accepted for publishing in the
  4827. proceedings of the International Conference on
  4828. Artificial Neural Networks '92 in Brighton:
  4829.  
  4830.         Relaxation in 4D state space - A competitive network
  4831.         approach to object-related velocity vector-field correction
  4832.  
  4833.  
  4834. by  Helmut Gluender       Institut fuer Medizinische Psychologie
  4835.                           Ludwig-Maximilians-Universitaet
  4836.                           Goethestrasse 31, D-8000 Muenchen 2, Germany
  4837.  
  4838. and Astrid Lehmann        Lehrstuhl fuer Nachrichtentechnik
  4839.                           Technische Universitaet Muenchen
  4840.                           Arcisstrasse 21, D-8000 Muenchen 2, Germany
  4841.  
  4842. ABSTRACT:
  4843.  
  4844. A standard principle of (energy-)minimization is applied to the
  4845. problem of visual motion analysis. In contrast to well-known
  4846. mathematical optimization procedures and universal optimizing
  4847. networks it is proposed to use a problem-adapted network
  4848. architecture. Owing to the bilocal coincidence-type motion
  4849. detector considered here the task of object-related motion
  4850. analysis appears as a geometric correspondence problem. Hence,
  4851. the correct spatio-temporal correspondeces between elements in
  4852. consecutive images must be selected from all possible ones. This
  4853. is performed by neighborhood operations that are repeatedly
  4854. applied to the instantaneous signal representation in the
  4855. space/velocity-domain until an estimate of the actual flow-field
  4856. is reached.
  4857.  
  4858. Hardcopies of the paper are available. Please send requests
  4859. to the following address in Germany:
  4860.  
  4861.         Helmut Gluender
  4862.         Institut fuer Medizinische Psychologie
  4863.         Ludwig-Maximilians-Universitaet
  4864.         Goethestrasse 31, D-8000 Muenchen 2, Germany
  4865.  
  4866. or via email to:
  4867.         alfred@lnt.e-technik.tu-muenchen.de
  4868.  
  4869. communicated by Alfred Nischwitz
  4870.  
  4871.  
  4872. ------------------------------
  4873.  
  4874. Subject: Genetic Synthesis of Unsupervised Learning Algorithms
  4875. From:    dasdan@trbilun.bitnet (Ali Dasdan)
  4876. Date:    Mon, 19 Jul 93 11:33:44 +0200
  4877.  
  4878. The following 25-page paper is available via anonymous ftp.
  4879.  
  4880.        Genetic Synthesis of Unsupervised Learning Algorithms
  4881.  
  4882.                   Ali DASDAN and Kemal OFLAZER
  4883.      Department of Computer Engineering and Information Science
  4884.                       Bilkent University
  4885.                  06533 Bilkent, Ankara, TURKEY
  4886.                 Email : dasdan@bcc.bilkent.edu.tr
  4887.  
  4888.                             Abstract
  4889.  
  4890. This paper presents new unsupervised learning algorithms that have been
  4891. synthesized using a genetic approach.  A set of such learning algorithms
  4892. has been compared with the classical Kohonen's Algorithm on the
  4893. Self-Organizing Map and has been found to provide a better performance measure.
  4894. This study indicates that there exist many unsupervised learning algorithms
  4895. that lead to an organization similar to that of Kohonen's Algorithm, and
  4896. that genetic algorithms can be used to search for optimal algorithms and
  4897. optimal architectures for the unsupervised learning.
  4898.  
  4899. To obtain an electronic copy:
  4900.  
  4901. Either #1 :
  4902. - --------
  4903.      ftp archive.cis.ohio-state.edu
  4904.      login: anonymous
  4905.      password: <your email address>
  4906.      cd /pub/neuroprose
  4907.      binary
  4908.      get dasdan.gen-unsup.ps.Z
  4909.      quit
  4910. Then at your system:
  4911.      uncompress dasdan.gen-unsup.ps.Z
  4912. Or #2 :
  4913. - --------
  4914.      ftp firat.bcc.bilkent.edu.tr
  4915.      login: anonymous
  4916.      password: <your email address>
  4917.      cd /pub/Neural/Papers
  4918.      binary
  4919.      get gen-unsup.ps.z
  4920.      quit
  4921. Then at your system:
  4922.      uncompress gen-unsup.ps.z
  4923.  
  4924. Kemal Oflazer                      e-mail: ko@hattusas.cs.bilkent.edu.tr
  4925. Bilkent University                       : ko@cs.bilkent.edu.tr
  4926. Computer Engineering Department          : ko@trbilun.bitnet (BITNET/EARN)
  4927. Bilkent, ANKARA, 06533 TURKIYE      tel: (90) 4 - 266-4133
  4928.                                     fax: (90) 4 - 266-4126
  4929. - ----------------------------------------------------------------------------
  4930.  
  4931.  
  4932. ------------------------------
  4933.  
  4934. Subject: Preprint Available: Random-Walk Learning
  4935. From:    rwa@spine.lanl.gov (Russell W. Anderson)
  4936. Date:    Fri, 23 Jul 93 08:08:01 -0700
  4937.  
  4938. PREPRINT AVAILABLE:
  4939.  
  4940. "Biased Random-Walk Learning:
  4941. A Neurobiological Correlate to Trial-and-Error"
  4942. (In press: Progress in Neural Networks)
  4943.  
  4944. Russell W. Anderson
  4945. Los Alamos National Laboratory
  4946.  
  4947. Abstract: Neural network models offer a theoretical testbed for the study
  4948. of learning at the cellular level.  The only experimentally verified
  4949. learning rule, Hebb's rule, is extremely limited in its ability to train
  4950. networks to perform complex tasks.  An identified cellular mechanism
  4951. responsible for Hebbian-type long-term potentiation, the NMDA receptor,
  4952. is highly versatile.  Its function and efficacy are modulated by a wide
  4953. variety of compounds and conditions and are likely to be directed by
  4954. non-local phenomena.  Furthermore, it has been demonstrated that NMDA
  4955. receptors are not essential for some types of learning.  We have shown
  4956. that another neural network learning rule, the chemotaxis algorithm, is
  4957. theoretically much more powerful than Hebb's rule and is consistent with
  4958. experimental data.  A biased random-walk in synaptic weight space is a
  4959. learning rule immanent in nervous activity and may account for some types
  4960. of learning -- notably the acquisition of skilled movement.
  4961.  
  4962. - ------------------------------------------
  4963.  
  4964. Electronic copy available, excluding 2 figures.
  4965. For hardcopies of the figures, please
  4966. contact me by email or slow mail.
  4967.  
  4968. To obtain a postscript copy:
  4969.  
  4970. %ftp mhc.lanl.gov
  4971. login: anonymous
  4972. password: <your email address>
  4973. ftp> cd pub
  4974. ftp> binary
  4975. ftp> get bias.ps.Z
  4976. ftp> quit
  4977.  
  4978. %uncompress bias.ps.Z
  4979. %lpr bias.ps
  4980.  
  4981.  
  4982. E-mail:
  4983. send request to rwa@temin.lanl.gov
  4984.  
  4985. Slow mail:
  4986. Russell Anderson
  4987. Theoretical Division (T-10)
  4988. MS K710
  4989. Los Alamos National Laboratory
  4990. Los Alamos, NM  87545
  4991. USA
  4992. (505) 667-9455
  4993. - -----------------------------------------------------
  4994.  
  4995.  
  4996. ------------------------------
  4997.  
  4998. End of Neuron Digest [Volume 11 Issue 48]
  4999. *****************************************
  5000. Received: from BUACCA by BUACCA.BU.EDU (Mailer R2.08 PTF009) with BSMTP id
  5001.  0695; Fri, 27 Aug 93 01:18:23 EDT
  5002. Received: from noc4.dccs.upenn.edu by BUACCA.BU.EDU (IBM VM SMTP R1.2.1) with
  5003.  TCP; Fri, 27 Aug 93 01:18:21 EDT
  5004. Received: from CATTELL.PSYCH.UPENN.EDU by noc4.dccs.upenn.edu
  5005.     id AA15987; Fri, 27 Aug 93 01:15:13 -0400
  5006. Return-Path: <marvit@cattell.psych.upenn.edu>
  5007. Received: from LOCALHOST by cattell.psych.upenn.edu
  5008.     id AA17228; Fri, 27 Aug 93 00:34:02 EDT
  5009. Posted-Date: Fri, 27 Aug 93 00:33:20 -0400
  5010. From: "Neuron-Digest Moderator" <neuron-request@CATTELL.PSYCH.UPENN.EDU>
  5011. To: Neuron-Distribution:;
  5012. Subject: Neuron Digest V11 #49 (discussion, follow-ups, queries, RFP)
  5013. Reply-To: "Neuron-Request" <neuron-request@CATTELL.PSYCH.UPENN.EDU>
  5014. X-Errors-To: "Neuron-Request" <neuron-request@psych.upenn.edu>
  5015. Organization: University of Pennsylvania
  5016. Date: Fri, 27 Aug 93 00:33:20 -0400
  5017. Message-Id: <17189.746426000@cattell.psych.upenn.edu>
  5018. Sender: marvit@cattell.psych.upenn.edu
  5019.  
  5020. Neuron Digest   Friday, 27 Aug 1993
  5021.                 Volume 11 : Issue 49
  5022.  
  5023. Today's Topics:
  5024.                 `Statistical Aspects of Neural Networks'
  5025.                    Thesis proposal, comments solicted
  5026.                             cybernetics & AI
  5027.                 Basins of Attraction of Cellular Automata
  5028.                             S/w for forecast
  5029.                             new member hello
  5030.                   RFP Research - McDonnell-Pew Program
  5031.  
  5032.  
  5033. Send submissions, questions, address maintenance, and requests for old
  5034. issues to "neuron-request@psych.upenn.edu". The ftp archives are
  5035. available from psych.upenn.edu (130.91.68.31). Back issues requested by
  5036. mail will eventually be sent, but may take a while.
  5037.  
  5038. ----------------------------------------------------------------------
  5039.  
  5040. Subject: `Statistical Aspects of Neural Networks'
  5041. From:    ripley@stats.ox.ac.uk (Prof. Brian Ripley)
  5042. Date:    19 Aug 93 10:45:09 +0000
  5043.  
  5044. Unfortunately, Neuron Digest has just posted an announcement of this
  5045. paper dated 20 July 1992 (note, 13 months ago). The paper is now
  5046. published, and the publisher quite reasonably wants people to buy the
  5047. book, so the electronic version is no longer available on our ftp server.
  5048. The details are:
  5049.  
  5050. B.D. Ripley (1993) Statistical aspects of neural networks. In
  5051. `Networks and Chaos -- Statistical and Probabilistic Aspects'
  5052. eds O.E. Barndorff-Nielsen, J.L. Jensen and W.S. Kendall. Chapman & Hall.
  5053. ISBN 0 412 46530 2.     pp. 40-123.
  5054.  
  5055.  
  5056. I'm sorry that several people have been misled by the very belated
  5057. announcement, completely outside my control.
  5058.  
  5059. Brian Ripley
  5060.  
  5061.  
  5062. [[ Editor's Note: I have replied personally to Brian Ripley.  As I
  5063. thought I had mentioned in an earlier Digest, I felt the policy of
  5064. "better late than never" was a useful one. At least one author felt
  5065. differently.  I am *very* interested in comments from you, the *readers*,
  5066. about my editorial policy. ]]
  5067.  
  5068. ------------------------------
  5069.  
  5070. Subject: Thesis proposal, comments solicted
  5071. From:    "ANTHONY ROBINS." <COSCAVR@rivendell.otago.ac.nz>
  5072. Date:    Fri, 13 Aug 93 16:14:00 +1200
  5073.  
  5074. Dear moderator
  5075.  
  5076. Could you circulate on Neuron Digest the following thesis proposal,
  5077. regarding Information Spaces.
  5078.  
  5079. Many thanks.
  5080.  
  5081. >>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>
  5082.  
  5083. To whoever is interested:
  5084.  
  5085. Following is a simplified version of my proposal for a PhD thesis. This may or
  5086. may not be of interest to the current audience, but if it is, I should very
  5087. much appreciate comments and/or pointers into relevant areas of available
  5088. literature - or maybe pointers at others who are doing similar things.
  5089.  
  5090. In anticipation of your hints, pointers, flames, or whatever - many thanks!
  5091.  
  5092. Till Noever
  5093.  
  5094. SnailMail:  Department of Computer Science,    EMail: cosctill@otago.ac.nz
  5095.             University of Otago,
  5096.             PO Box 56, Dunedin,
  5097.             New Zealand
  5098.  
  5099. SYNOPSIS OF PROPOSAL:
  5100.  
  5101. "In my M.Sc. thesis I proposed a generalised view of computation and cognition
  5102. as a process of projection of points in high-dimensional state spaces into
  5103. lower-dimensional subspaces of these. The space containing all possible
  5104. computational state spaces has been dubbed 'Information Space', and the process
  5105. of projection into subspaces 'Information Space Reduction'. The properties of
  5106. computational processes and the objects they interact with, may therefore be
  5107. represented in terms of the topological and geometrical properties of of this
  5108. space, or its relevant subspaces. Approaches to computation, especially with
  5109. neural nets, which use a similar kind of framework, have already been proposed;
  5110. particularly by Amari and his co-workers.
  5111.  
  5112. One result of applying the Information Space paradigm is the notion that
  5113. 'neural' and 'symbolic' computation must be understood as being qualitatively
  5114. equivalent, in spite of their perceived differences. One of the reasons why the
  5115. apparent differences are understood as somehow fundamental, rather than
  5116. essentially quantitative, is that researchers who attempt to generate abstract
  5117. models for computational systems begin with the systems themselves - their
  5118. physical or logical structure, or the processes that are conjectured to take
  5119. place within them. The particular properties of those systems thereby assume
  5120. excessive importance, and the resulting models will be correspondingly limited.
  5121. The limitation of those models in turn, makes it difficult to explain how - in
  5122. a biological cognitive system like the human brain, for example - high-level
  5123. symbolic constructs and representations can exist and interact on a matrix
  5124. which appears to be essentially a very complex neural network.
  5125.  
  5126. In my PhD thesis and research I intend to take the reverse approach, and
  5127. propose a model which begins by considering a, recursively definable,
  5128. high-dimensional Information Space, whose subspaces may have various topologies
  5129. and metrics. Initially this will be done theoretically, to be followed by a
  5130. computational implementation. This model should be self-consistent, and, in its
  5131. basic form, require no references to vocabulary other than the limited set
  5132. which it is based upon.
  5133.  
  5134. Computational and psychological concepts such as 'representation', 'learning',
  5135. and 'memory' will subsequently be explicitly defined within this framework.
  5136. Using these definitions, the system will then be presented with a simple
  5137. computational or cognitive task, such as representing, learning about, and
  5138. re-representing - that is, providing some output information about - a simple
  5139. object; such as, for example, a Necker Cube.With the aim of identifying just
  5140. how the Information Space Reductions map onto standard computing and
  5141. psychological vocabulary.
  5142.  
  5143. Success in this venture would be a significant step along the way towards
  5144. producing a fundamental theory of all that computational and cognitive activity
  5145. which may take place in physically realisable systems."
  5146.  
  5147.  
  5148.  
  5149. ------------------------------
  5150.  
  5151. Subject: cybernetics & AI
  5152. From:    cavonius@ifado.arb-phys.uni-dortmund.de
  5153. Date:    Fri, 13 Aug 93 09:51:12 +0100
  5154.  
  5155. I suspect that a large part of the answer to Galley's question
  5156. on what happened to cybernetics is that time plays a role:
  5157. it's unfortunate, but in this field - to a greater extent than
  5158. in science in general - activity is dictated by what happens
  5159. to be fashionable at any given moment. Cybernetics was all the
  5160. rage in the late 40s and 50s. Too much enthusiasm was generated,
  5161. and when it failed to achieve everything that was expected of
  5162. it was renounced in favor of AI. To a certain extent the same
  5163. is now happening to AI, although AI will be harder to kill off
  5164. because our investment in it is much larger than the investment
  5165. in cybernetics was.
  5166. Dick Cavonius
  5167.  
  5168.  
  5169. ------------------------------
  5170.  
  5171. Subject: Basins of Attraction of Cellular Automata
  5172. From:    Andrew Wuensche <100020.2727@CompuServe.COM>
  5173. Date:    13 Aug 93 06:46:08 -0500
  5174.  
  5175. Basins of Attraction of Cellular Automata
  5176.  
  5177. ref recent enquiry from John Boller..
  5178.  
  5179. >I am looking for references to the comparison of
  5180. >Basins of Attraction of Cellular Automata and
  5181. >Neural Networks.
  5182. >I would greatly appreciate anyone who could point
  5183. >me in the correct direction.
  5184.  
  5185. The book "The Global Dynamics of Cellular Automata" and pre-print "The
  5186. Ghost in the Machine" detailed below may be of interest..
  5187.  
  5188. The pre-print describes recent work on the basins of attraction of
  5189. random Boolean networks (disorderd cellular automata), and implications
  5190. on memory and learning (the abstract was posted in Volume 11:Issue 44 of
  5191. Neuron Digest). Currently only hard-copies are available. To
  5192. request copies, send email to:
  5193.  
  5194. andywu@cogs.susx.ac.uk, or write to
  5195. Andy Wuensche, 48 Esmond Road, London W4 1JQ, UK
  5196. dont forget to give a surface mail address.
  5197.  
  5198.  
  5199. The Global Dynamics of Cellular Automata
  5200. ========================================
  5201. An Atlas of Basin of Attraction Fields of
  5202. One-Dimensional Cellular Automata.
  5203.  
  5204. Andrew Wuensche
  5205. Mike Lesser
  5206.  
  5207. Foreword by Chris Langton
  5208. Diskette included for PC-compatible computers.
  5209.  
  5210. Santa Fe Institute Studies in the Sciences of Complexity
  5211. Reference Vol 1  Addison-Wesley  IBSN 0-201-55740-1  1992
  5212.  
  5213.  
  5214. The Ghost in the Machine
  5215. ========================
  5216. Basins of Attraction of Random Boolean Networks
  5217.  
  5218. Andrew Wuensche
  5219.  
  5220. Cognitive Science Research Paper 281, University of Sussex, 1993 (to be
  5221. published in Artificial Life III, Santa Fe Institute Studies in the
  5222. Sciences of Complexity).
  5223.  
  5224.  
  5225.  
  5226. ------------------------------
  5227.  
  5228. Subject: S/w for forecast
  5229. From:    okoks@pc.ibt.dk
  5230. Date:    Fri, 13 Aug 93 11:39:00 -0800
  5231.  
  5232. Hello,
  5233. I have for some time now read about the use of ANN in economics, and would
  5234. like to do some estimations/forecasts myself.
  5235. The problem is I do not have a program for this purpose. Can anyone recommend
  5236. such a program, preferably free- or shareware, as my funding is limited?
  5237.  
  5238. TIA,
  5239.  
  5240. Karsten Strobek
  5241.  
  5242. Institute of Economics                                  Phone: +45 35 32 30 25
  5243. University of Copenhagen                                  Fax: +45 35 32 30 00
  5244. Studiestraede 6                                      Internet: Okoks@pc.ibt.dk
  5245. DK-1455 Copenhagen K
  5246. Denmark
  5247.  
  5248.  
  5249. ------------------------------
  5250.  
  5251. Subject: new member hello
  5252. From:    anich@cordmc.dnet.etn.com (Steve Anich, Eaton Corporation, Milwaukee)
  5253. Date:    Mon, 16 Aug 93 11:31:22 -0500
  5254.  
  5255. Hi,
  5256.  
  5257.   I'm new to Neural Networks. I'm currently trying to get a ANN to
  5258. recognize the difference between a good or bad weld based
  5259. on a voltage & current signature. I was using a product
  5260. from HNC to do this, but it has been crashing like crazy. I'm
  5261. going start rolling my own (after I'm done with this message),
  5262. in case the HNC tech support people can't help.
  5263.  
  5264.   My main interest in ANN for signal/siganture classification. I expect
  5265. to be using it also with multiple sensor shortly. I am
  5266. interested (but blissfully ignorant) in ANN which can
  5267. optimize themselves over time (while be used).
  5268.  
  5269.  Question: Does anyone know of some existing code (say C++
  5270. classes for ANN) that I can ftp from somewhere? I'd rather not
  5271. start from scratch.
  5272.  
  5273.  FYI: I heard about this digest on a FAQ from somewhere aboyt AI.
  5274.  
  5275.  
  5276. Thanks,
  5277.  
  5278. - --steve
  5279.  
  5280. ..................................................................
  5281. Steve Anich
  5282.  
  5283. Eaton Corporation R&D Center    | email: anich@cordmc.dnet.etn.com
  5284. Systems & Software Technologies |        stevea48@aol.com
  5285. 4201 N. 27th Street             | voice: 414-449-6457
  5286. Milwaukee WI 53216, USA         | fax:   414-449-6221
  5287. ..................................................................
  5288.             "I eat kludges for breakfast, Buckwheat!"
  5289.  
  5290.  
  5291. ------------------------------
  5292.  
  5293. Subject: RFP Research - McDonnell-Pew Program
  5294. From:    Cognitive Neuroscience <cns@clarity.Princeton.EDU>
  5295. Date:    Tue, 17 Aug 93 11:30:02 -0500
  5296.  
  5297.  
  5298. McDonnell-Pew Program
  5299. in Cognitive Neuroscience
  5300.  
  5301. SEPTEMBER 1993
  5302.  
  5303. Individual Grants-in-Aid
  5304. for Research
  5305.  
  5306. Program supported jointly by the
  5307. James S. McDonnell Foundation
  5308. and The Pew Charitable Trusts
  5309.  
  5310. INTRODUCTION
  5311.         The McDonnell-Pew Program in Cognitive Neuroscience has been
  5312. created jointly by the James S. McDonnell Foundation and The Pew Charitable
  5313. Trusts to promote the development of cognitive neuroscience.  The foundations
  5314. have allocated $20 million over a five-year period for this program.
  5315.  
  5316.         Cognitive neuroscience attempts to understand human mental events by
  5317. specifying how neural tissue carries out computations.  Work in cognitive
  5318. neuroscience is interdisciplinary in character, drawing on developments in
  5319. clinical and basic neuroscience, computer science, psychology, linguistics,
  5320. and philosophy.  Cognitive neuroscience excludes descriptions of psychological
  5321. function that do not address the underlying brain mechanisms and
  5322. neuroscientific descriptions that do not speak to psychological function.
  5323.  
  5324.         The program has three components.
  5325.  
  5326.            (1)  Institutional grants, which have already been awarded,
  5327.                 for the purpose of creating centers where cognitive
  5328.                 scientists and neuroscientists can work together.
  5329.  
  5330.            (2)  Small grants-in-aid, presently being awarded, for individual
  5331.                 research projects to encourage Ph.D. and M.D. investigators
  5332.                 in cognitive neuroscience.
  5333.  
  5334.            (3)  Small grants-in-aid, presently being awarded, for individual
  5335.                 training projects to encourage Ph.D. and M.D. investigators
  5336.                 to acquire skills for interdisciplinary research.
  5337.  
  5338.         This brochure describes the individual grants-in-aid for research.
  5339.  
  5340.  
  5341. RESEARCH GRANTS
  5342.         The McDonnell-Pew Program in Cognitive Neuroscience will issue a
  5343. limited number of awards to support collaborative work by cognitive
  5344. neuroscientists.  Applications are sought for projects of exceptional merit
  5345. that are not currently fundable through other channels and from investigators
  5346. who are not at institutions already funded by an institutional grant from
  5347. the program.  In order to distribute available funds as widely as possible,
  5348. preference will be given to applicants who have not received previous grants
  5349. under this program.
  5350.  
  5351.         Preference will be given to projects that are interdisciplinary in
  5352. character.  The goals of the program are to encourage broad participation
  5353. in the development of the field and to facilitate the participation of
  5354. investigators outside the major centers of cognitive neuroscience.
  5355.  
  5356.         There are no U.S. citizenship restrictions or requirements, nor does
  5357. the proposed work need to be conducted at a U.S. institution, providing the
  5358. sponsoring organization qualifies as tax-exempt as described in the
  5359. "Applications" section of this brochure.  Ph.D. thesis research of graduate
  5360. students will not be funded.
  5361.  
  5362.         Grant support under the research component is limited to $30,000
  5363. per year for two years.  Indirect costs are to be included in the $30,000
  5364. maximum and may not exceed 10 percent of total salaries and fringe
  5365. benefits.  These grants are not renewable after two years.
  5366.  
  5367.         The program is looking for innovative proposals that would, for
  5368. example:
  5369.  
  5370.         * combine experimental data from cognitive psychology and neuroscience;
  5371.  
  5372.         * explore the implications of neurobiological methods for the study
  5373.           of the higher cognitive processes;
  5374.  
  5375.         * bring formal modeling techniques to bear on cognition, including
  5376.           emotions and higher thought processes;
  5377.  
  5378.         * use sensing or imaging techniques to observe the brain during
  5379.           conscious activity;
  5380.  
  5381.         * make imaginative use of patient populations to analyze cognition;
  5382.  
  5383.         * develop new theories of the human mind/brain system.
  5384.  
  5385. This list of examples is necessarily incomplete but should suggest the
  5386. general kind of proposals desired.  Ideally, a small grant-in-aid for
  5387. research should facilitate the initial exploration of a novel or risky
  5388. idea, with success leading to more extensive funding from other sources.
  5389.  
  5390.  
  5391. APPLICATIONS
  5392.         Applicants should submit five copies of the following information:
  5393.  
  5394.         * a brief, one-page abstract describing the proposed work;
  5395.  
  5396.         * a brief, itemized budget that includes direct and indirect
  5397.           costs (indirect costs may not exceed 10 percent of total
  5398.           salaries and fringe benefits);
  5399.  
  5400.         * a budget justification;
  5401.  
  5402.         * a narrative proposal that does not exceed 5,000 words; the
  5403.           5,000-word proposal should include:
  5404.  
  5405.             1)  a description of the work to be done and where
  5406.                 it might lead;
  5407.  
  5408.             2)  an account of the investigator's professional
  5409.                 qualifications to do the work;
  5410.  
  5411.             3)  an account of any plans to collaborate with other
  5412.                 cognitive neuroscientists;
  5413.  
  5414.             4)  a brief description of the available research
  5415.                 facilities;
  5416.  
  5417.         * curriculum(a) vitae of the participating investigator(s);
  5418.  
  5419.         * an authorized document indicating clearance for the use of
  5420.           human and animal subjects;
  5421.  
  5422.         * an endoresement letter from the officer of the sponsoring
  5423.           institution who will be responsible for administering the
  5424.           grant.
  5425.  
  5426.         One copy of the following items must also be submitted along with the
  5427. proposal.  These documents should be readily available from the sponsoring
  5428. institution's grants or development office.
  5429.  
  5430.         * A copy of the IRS determination letter, or the international
  5431.           equivalent, stating that the sponsoring organization is a nonprofit,
  5432.           tax-exempt institution classified as a 501(c)(3) organization.
  5433.  
  5434.         * A copy of the IRS determination letter stating that your organization
  5435.           is not listed as a private foundation under section 509(a) of the
  5436.           Internal Revenue Service Code.
  5437.  
  5438.         * A statement on the sponsoring institution's letterhead, following
  5439.           the wording on Attachment A and signed by an officer of the
  5440.           institution, certifying that the status or purpose of the
  5441.           organization has not changed since the issuance of the IRS
  5442.           determinations.  (If your organization's name has changed, include
  5443.           a copy of the IRS document reflecting this change.)
  5444.  
  5445.         * An audited financial statement of the most recently completed fiscal
  5446.           year of the sponsoring organization.
  5447.  
  5448.         * A current list of the names and professional affiliations of the
  5449.           members of the organization's board of trustees and the names and
  5450.           titles of the principal officers.
  5451.  
  5452. Other appended documents will not be accepted for evaluation and will be
  5453. returned to the applicant.  Any incomplete proposals will also be returned
  5454. to the applicant.
  5455.  
  5456.         Submissions will be reviewed by the program's advisory board.
  5457. Applications must be postmarked on or before FEBRUARY 1 to be considered
  5458. for review.
  5459.  
  5460. INFORMATION
  5461. McDonnell-Pew Program in Cognitive Neuroscience
  5462. Green Hall 1-N-6
  5463. Princeton University
  5464. Princeton, New Jersey 08544-1010
  5465. Telephone: 609-258-5014
  5466. Facsimile: 609-258-3031
  5467. Email: cns@clarity.princeton.edu
  5468.  
  5469.  
  5470. ADVISORY BOARD
  5471.  
  5472. Emilio Bizzi, M.D.
  5473. Eugene McDermott Professor in the Brain
  5474.    Sciences and Human Behavior
  5475. Chairman, Department of Brain and Cognitive Sciences
  5476. Massachusetts Institute of Technology, E25-526
  5477. Cambridge, Massachusetts 02139
  5478.  
  5479. Sheila E. Blumstein, Ph.D.
  5480. Professor of Cognitive and Linguistic Sciences
  5481. Dean of the College
  5482. Brown University
  5483. University Hall, Room 218
  5484. Providence, Rhode Island 02912
  5485.  
  5486. Stephen J. Hanson, Ph.D.
  5487. Head, Learning Systems Department
  5488. Siemens Corporate Research
  5489. 755 College Road East
  5490. Princeton, New Jersey 08540
  5491.  
  5492. Jon H. Kaas, Ph.D.
  5493. Centennial Professor
  5494. Department of Psychology
  5495. Vanderbilt University
  5496. 301 Wilson Hall
  5497. 111 21st Avenue South
  5498. Nashville, Tennessee 37240
  5499.  
  5500. George A. Miller, Ph.D.
  5501. Director, McDonnell-Pew Program in Cognitive Neuroscience
  5502. James S. McDonnell Distinguished University Professor of Psychology
  5503. Department of Psychology
  5504. Princeton University
  5505. Princeton, New Jersey 08544-1010
  5506.  
  5507. Mortimer Mishkin, Ph.D.
  5508. Chief, Laboratory of Neurpsychology
  5509. National Institute of Mental Health
  5510. 9000 Rockville Pike
  5511. Building 49, Room 1B80
  5512. Bethesda, Maryland 20892
  5513.  
  5514. Marcus E. Raichle, M.D.
  5515. Professor of Neurology and Radiology
  5516. Division of Radiation Sciences
  5517. Washington University School of Medicine
  5518. Campus Box 8225
  5519. 510 S. Kingshighway Boulevard
  5520. St. Louis, Missouri 63110
  5521.  
  5522. Endel Tulving, Ph.D.
  5523. Tanenbaum Chair in Cognitive Neuroscience
  5524. Rotman Research Institute of Baycrest Centre
  5525. 3560 Bathurst Street
  5526. North York, Ontario M6A 2E1
  5527. Canada
  5528.  
  5529.  
  5530. ------------------------------
  5531.  
  5532. End of Neuron Digest [Volume 11 Issue 49]
  5533. *****************************************
  5534. Received: from BUACCA by BUACCA.BU.EDU (Mailer R2.08 PTF009) with BSMTP id
  5535.  1034; Tue, 31 Aug 93 22:25:02 EDT
  5536. Received: from noc4.dccs.upenn.edu by BUACCA.BU.EDU (IBM VM SMTP R1.2.1) with
  5537.  TCP; Tue, 31 Aug 93 22:24:59 EDT
  5538. Received: from CATTELL.PSYCH.UPENN.EDU by noc4.dccs.upenn.edu
  5539.     id AA27399; Tue, 31 Aug 93 22:15:17 -0400
  5540. Return-Path: <marvit@cattell.psych.upenn.edu>
  5541. Received: from LOCALHOST by cattell.psych.upenn.edu
  5542.     id AA29134; Tue, 31 Aug 93 21:17:09 EDT
  5543. Posted-Date: Tue, 31 Aug 93 21:16:32 -0400
  5544. From: "Neuron-Digest Moderator" <neuron-request@CATTELL.PSYCH.UPENN.EDU>
  5545. To: Neuron-Distribution:;
  5546. Subject: Neuron Digest V11 #50 (misc discussion, s/w, queries, etc.)
  5547. Reply-To: "Neuron-Request" <neuron-request@CATTELL.PSYCH.UPENN.EDU>
  5548. X-Errors-To: "Neuron-Request" <neuron-request@psych.upenn.edu>
  5549. Organization: University of Pennsylvania
  5550. Date: Tue, 31 Aug 93 21:16:32 -0400
  5551. Message-Id: <29129.746846192@cattell.psych.upenn.edu>
  5552. Sender: marvit@cattell.psych.upenn.edu
  5553.  
  5554. Neuron Digest   Tuesday, 31 Aug 1993
  5555.                 Volume 11 : Issue 50
  5556.  
  5557. Today's Topics:
  5558.                    Letter/Submission to Neuron Digest
  5559.                             Neural Dreams...
  5560.                           Ref: 1993 SCSC Paper
  5561.                                  Request
  5562.                     Kohonen Software & Email Address
  5563.                                Benchmarks?
  5564.     seeking a Director for a Center for Neuroscience at Boston Univ.
  5565.                       NevProp 1.16 Update Available
  5566.                   Neural hardware performance criteria
  5567.                    Commercial Neural Network Software
  5568.                                cybernetics
  5569.                      Help for signature verification
  5570.                     neural network society membership
  5571.                      neural network research centers
  5572.  
  5573.  
  5574. Send submissions, questions, address maintenance, and requests for old
  5575. issues to "neuron-request@psych.upenn.edu". The ftp archives are
  5576. available from psych.upenn.edu (130.91.68.31). Back issues requested by
  5577. mail will eventually be sent, but may take a while.
  5578.  
  5579. ----------------------------------------------------------------------
  5580.  
  5581. Subject: Letter/Submission to Neuron Digest
  5582. From:    David Kanecki <kanecki@cs.uwp.edu>
  5583. Date:    Tue, 17 Aug 93 20:54:50 -0600
  5584.  
  5585. [[ Editor's Note: Thanks to David for this description.  I'm sure many
  5586. readers will find it food for thought and may wish to correspond with him
  5587. about his work on the "classic" problem which AI tried to tackle 20-30
  5588. years ago. -PM ]]
  5589. ~
  5590.   August 17, 1993
  5591.  
  5592.   Dear Peter,
  5593.  
  5594.   If you wish, I can send a copy of my "Neural Chess" presentation text and a
  5595.   copy of my "3D Neural Chess" presentation text.
  5596.  
  5597.   Since, I last wrote you, I have made two other developments in Neural Chess
  5598.   as 1) Development of 3d Neural Chess and 2) Completion of the first  Neural
  5599.   Chess study "The Use of 2D Neural Chess, an Intelligent, Thinking  Computer
  5600.   Program as an Aid to Compare Strategic/Personal Neural Processing". I would
  5601.   like  to  submit the "3d Neural Chess" abstract and the "2d  Neural  chess"
  5602.   study for publication in the Neuron Digest.
  5603.  
  5604.   Also, I am unemployed and looking for employment in this or other science
  5605.   fields. For employment correspondence or a copy of my current resume,
  5606.   please contact me at 4410 19th Avenue, Kenosha, WI 53140, (414)- 654-7560
  5607.   or by e-mail. Finally, I have set up the "Neural/Sim BBS" at
  5608.   (414)-654-7560 that runs from 7pm to 7am CT, Monday through Friday.
  5609.  
  5610.   Next, an overview of what I present is:
  5611.  
  5612.        On  intelligent, thinking systems I have developed four categories  of
  5613.   new systems and technologies as 1) 1992 - Module 1 - 2d Neural Chess -  The
  5614.   basis  of  intelligent, thinking systems; 2) 1993 - Module 2  -  3d  Neural
  5615.   Chess  - The enhancement and next level in intelligent,  thinking  systems;
  5616.   and 3) The ability to quantify strategic/ personal neural decision  making;
  5617.   and  4) High speed and high volume data analysis using the neural  programs
  5618.   to define "intelligent control processor systems".
  5619.  
  5620.   Finally,  any  inquires or licences for the Neural Chess programs  or  high
  5621.   speed and high volume data analysis (intelligent control processor  system)
  5622.   can  be directed to: Peter Jansson, Attorney at Law, 245 Main  St.  Racine,
  5623.   WI, (414)-632-6900
  5624.  
  5625.  
  5626.                   ======== 3d Neural Chess Abstract ========
  5627.  
  5628.   First,  I have developed "3D Neural Chess". This is an enhancement  of  the
  5629.   Neural Chess program that allows the computer to play chess in 3 dimensions
  5630.   as  x,y,  and z and opposed to two dimensions as x and  y  as  conventional
  5631.   chess. Thus, the decision making is more complicated. The "3D Neural Chess"
  5632.   paper was published in 1993 Summer Computer Simulation Conference  Proceed-
  5633.   ings. This application represents a major learning breakthrough in learning
  5634.   and teaching applications and modules using the main program as the  basis.
  5635.   The abstract of the paper is as follows:
  5636.  
  5637.       A Decision Support System for Simulation and Real Time Applications
  5638.                               as 3D Neural Chess
  5639.  
  5640.                       David H. Kanecki, A.C.S., Bio. Sci.
  5641.                                 P.O. Box 26944
  5642.                            Wauwatosa, WI 53226-0944
  5643.  
  5644.   In decision support systems, this 3d computer program covers a major break-
  5645.   through  in the importance of new software techniques and  applications  in
  5646.   micro  computing environments, palmtop computing. 3d neural chess  includes
  5647.   the  whole  decision space, while 2d neural chess includes a plane  of  the
  5648.   decision  space,  and  is only a partial support to  the  decision  support
  5649.   system. Based on my work and paper as "Simulation as an Intelligent, Think-
  5650.   ing  Computer Program as Neural Chess" that was presented at the 1992  SCSC
  5651.   (Kanecki 1992a), I have developed a 3d Neural chess program that shows  the
  5652.   1)  strength, 2) adaptability, and 3) learning of reasoning  by  sensation,
  5653.   sensual  reasoning.  This decision support program was a 3  year  outgrowth
  5654.   from the Neural Chess program. The goals of the project were 1) Is  sensual
  5655.   reasoning  universal,  2) How well could it work in  the  next  dimensional
  5656.   system?
  5657.  
  5658.   In  this  paper, I will present the game environment of  three  dimensional
  5659.   chess  that the 3d chess program played. Also, I will desrcibe the  conclu-
  5660.   sions of a match against against a human opponent. Finally, I will describe
  5661.   the cognitive theory proved in this project.
  5662.  
  5663.   The decision support system as 3d neural chess is expandable to many  other
  5664.   physical  systems. It can be used in accessible, portable micro systems  in
  5665.   various physical environments, terrain processing, navigation, and resource
  5666.   planning  applications  (air, water, land, space).  The  computer  programs
  5667.   requires  thousands of lines of programming and uses "no decision trees  or
  5668.   databases"  and  is  based strictly on "sensual reasoning"  by  the  neural
  5669.   network. By additional logic models, the future applications mentioned  can
  5670.   be developed.
  5671.  
  5672.   Keywords:  Sensual  reasoning, Decision Support Systems, 3D  Neural  Chess,
  5673.   AI/KBS, Neural Networks, Terrain Processing, Robotics, Cognition,  Intelli-
  5674.   gent Thinking Computer Software, Resource Planning, Logistics, Atomic Mind,
  5675.   Interaction Difference
  5676.  
  5677.   <Published  in the 1993 Summer Computer Simulation Conference  Proceedings,
  5678.   The Society for Computer Simulation, San Diego, CA >
  5679.  
  5680.                    ======== 2d Neural Chess Study =========
  5681.  
  5682.   With the neural chess program, I have been able to study the strategic  and
  5683.   personal  neural processing of individuals based on the chess matches  that
  5684.   they have played. From this study, I have found measureable differences  in
  5685.   neural  processing. The neural chess programs allow one to  quantify  these
  5686.   differences as stated in the paper below:
  5687.  
  5688.  
  5689.                           The Use of 2D-Neural Chess,
  5690.                   an Intelligent, Thinking Computer Program,
  5691.                              as an Aid to Compare
  5692.                      Strategic/Personal Neural Processing
  5693.  
  5694.                                       By
  5695.  
  5696.                       David H. Kanecki, A.C.S., Bio. Sci.
  5697.                                 P.O. Box 26944
  5698.                            Wauwatosa, WI 53226-0944
  5699.                          Internet: kanecki@cs.uwp.edu
  5700.            Neural/SIM BBS, (414)-654-7560, 7pm-7am ct, 300/1200 baud
  5701.  
  5702.  
  5703.   With the use of the 2D-Neural Chess program, I was able to determine  quan-
  5704.   titative  differences  in various chess strategies. The study was  done  by
  5705.   having  the  2D  Neural chess program generate a neural  matrix  that  best
  5706.   responded  and  adapted to a given chess match that was  processed  by  the
  5707.   program. The response and adaptation used a process called sensual  reason-
  5708.   ing (Kanecki 1992a). This process allows the computer to make a decision by
  5709.   integrating  its  sensations in a method similar  to  biological  organisms
  5710.   (Kanecki 1992a).
  5711.  
  5712.   The  2D  Neural Chess program, represents a new  development  in  emulating
  5713.   intelligence  and thinking. The program is unique in that it uses no  data-
  5714.   base  or game trees. Instead, it uses real time neural update using a  bio-
  5715.   logical  basis  as  its model (Kanecki 1990a). The basis  of  its  decision
  5716.   making,  is the atomic neuron and atomic mind (Kanecki 1992a).  The  atomic
  5717.   neuron sense and the atomic mind integrates and acts.
  5718.  
  5719.   In  the initial test matches of the program against a human  opponent,  the
  5720.   program was able to defeat a human opponent (Kanecki 1991a). Also, the  2D-
  5721.   Neural  Chess  program had learned how to defeat a human opponent  in  only
  5722.   four  games. In addition, the 2D-Neural Chess program is so responsive  and
  5723.   adaptive,  it can continue to play a strong chess match even when an  oppo-
  5724.   nent deliberately makes an illegal move (Kanecki 1991a, Kanecki 1992a).  In
  5725.   addition,  the Neural Chess program can explain in ordinary  human  written
  5726.   language why it choose its move. Lastly, the 2D-Neural Chess program repre-
  5727.   sents 10 years of research.
  5728.  
  5729.   In  this  study using the 2D-Neural Chess program, I wanted to see  if  the
  5730.   program could allow one to quantitatively determine if there was a  differ-
  5731.   ence  in various chess strategies? To start the study, I selected  5  chess
  5732.   strategies with 3 replicates of each strategy. Then, after each match,  the
  5733.   atomic  neural values were sorted and collated by strategy, time  interval,
  5734.   and  game  result. Next, the data was analyzed for 3 major  time  intervals
  5735.   using  the chi square method. Finally, the data was normalized by  dividing
  5736.   the  chi square value by the significant chi square value. Thus, any  value
  5737.   greater  than  1.00 is significant. Also, any value greater  than  2.00  is
  5738.   highly significant and a value greater than 3.00 is extremely significant.
  5739.  
  5740.   The results of the study are:
  5741.  
  5742.                         Strategy - Win/Loss Comparison
  5743.              Move     |    KID       GRU       QID       BER       PIR
  5744.           ----------------------------------------------------------
  5745.              5  |    0.18      0.14      0.72      0.96      0.04
  5746.              11 |    0.33      1.41      1.21      2.11      0.20
  5747.              18 |    4.14      10.15     2.33      5.51      0.59
  5748.  
  5749.   In  the table above, the abbreviations 'KID' is used to indicate  that  the
  5750.   "King's  Indian  Defense"  was used, 'GRU' is used  to  indicate  that  the
  5751.   "Gruenfeld  Defense"  was used, 'BER' is used to indicate  that  the  "Bern
  5752.   Defense"  was used, and 'PIR' is used to indicate that the  "PIRC  Defense"
  5753.   was used. The word 'move' is used to indicate the ending time interval. The
  5754.   three time intervals used were moves 0, initial atomic neuron states, to 5,
  5755.   moves 6 to 11, and moves 12 to 18.
  5756.  
  5757.   Two  general  comments can be made on various chess  strategies.  One,  the
  5758.   difference measure, the normalized chi square value, increased in each time
  5759.   interval.  Two, the difference measure reaches the significance  threshold,
  5760.   1.00, at different time intervals. For example, the 'KID' strategy  reaches
  5761.   the significance threshold at time interval 18, the 'GRU' strategy  reaches
  5762.   the significance threshold at time interval 11, the 'QID' strategy  reaches
  5763.   the  significance  threshold at time interval 11, and  the  'BER'  strategy
  5764.   reaches  the significance interval at time interval 11. The only  exception
  5765.   to  the  second statement, is the 'PIR' strategy. This  strategy  does  not
  5766.   reach the significance threshold in the time intervals studied.
  5767.  
  5768.   The quantitative analysis that is afforded by sensual reasoning, allows one
  5769.   to view increases and decreases in difference measures. Also, the quantita-
  5770.   tive difference measure allows one to monitor changes in the neural  system
  5771.   as the atomic neuron and atomic mind. Finally, it shows how responsive  and
  5772.   adaptive  neural  systems are to solving neural processing  problems,  i.e.
  5773.   chess strategies.
  5774.  
  5775.   The  game  of  chess was used as metaphor to study  neural  interaction  in
  5776.   decision making. An interesting observation made in this project, was  that
  5777.   the computing method was needed much more that the computing hardware.  For
  5778.   example,  Neural Chess, later to be called 2D-Neural Chess, was  originally
  5779.   developed  on an Osborne-1 with 64K RAM and running CP/M. Also, because  of
  5780.   the  computing power of neural systems, the Osborne-1 Neural chess  program
  5781.   was  able to make chess decisions in real time. Thus, a  neural  processing
  5782.   method  and computer used with proper neural architecture basis allows  one
  5783.   to study an aspect of human thought "in vitro".
  5784.  
  5785.  
  5786.   [1992]    Kanecki,  D.H., "Simulation as an Intelligent, Thinking  Computer
  5787.   System  as Neural Chess", Proceedings 1992 Summer Computer Simulation  Con-
  5788.   ference, The Society for Computer Simulation, pages 428-432.
  5789.  
  5790.   [1991]    Kanecki, D.H., "Neural Chess - Presentation of Findings",  Neuron
  5791.   Digest, Volume 7, Issue 39, July 8, 1991.
  5792.  
  5793.   [1990]    Kanecki, D.H., "Neural Chess: I have developed a program", Neuron
  5794.   Digest, Volume 6, Issue 88, November 25, 1990.
  5795.  
  5796.  
  5797. ------------------------------
  5798.  
  5799. Subject: Neural Dreams...
  5800. From:    ttgrq@info.win.tue.nl (Andreas Gammel)
  5801. Date:    Wed, 18 Aug 93 14:11:33 +0100
  5802.  
  5803. [[ Editor's Note: As long-time readers know, the Digest is for beginners
  5804. and sophisticates alike.  This fellow does take the topic farther than
  5805. many of our day-to-day work... -PM ]]
  5806.  
  5807. Hello, my name is Andreas and I'm a newbie in the field of NN and this
  5808. list.  If read a very nice book about it (back propagation, cascade
  5809. correlation, hopfield nets etc) and I'm thinking of writing some programs
  5810. for it. Any software (Dos, Unix, sources and ftp-sites) would be most
  5811. appreciated. Just email it to me.
  5812.  
  5813. I have a rather phylosofical topic..
  5814. I was wondering if it would be possible to let a Neural Net dream?
  5815.  
  5816. What I mean is this. Say we make a NN with 100 binary inputs and 1 binary
  5817. output. The input is a 10 x 10-grid representing some picture. The output
  5818. is an answer to the question "Does the picture show a house" for example.
  5819. We then train this NN to respond positivly to pictures of houses and
  5820. negatively to other pictures.  Now this is al fine, it has been done
  5821. before...  but I was wondering is it would be thinkable to REVERSE all
  5822. arrows in the trained NN so that the input becomes 1 bit (house? yes or
  5823. no) and the output becomes a 10x10 grid. (in other words the NN is
  5824. DREAMING about houses).  I suspect that human dreaming works basicly the
  5825. same.
  5826.  
  5827. Would the output resemble a house? And if yes, to what extent?  If it
  5828. works, could the same be achieved by using centerfolds instead of houses,
  5829. thereby creating a 'dirty mind' (for our younger list-members)
  5830.  
  5831. Bye for now
  5832.  
  5833. Andreas
  5834. ttgrq@info.win.tue.nl
  5835.  
  5836.  
  5837. ------------------------------
  5838.  
  5839. Subject: Ref: 1993 SCSC Paper
  5840. From:    David Kanecki <kanecki@cs.uwp.edu>
  5841. Date:    Wed, 18 Aug 93 13:07:50 -0600
  5842.  
  5843. Dear Peter,
  5844.  
  5845. The complete reference for the 1993 SCSC paper is:
  5846.  
  5847. "A Decision Support System for Simulation and Real Time Applications as
  5848. 3D Neural Chess", 1993 Summer Computer Simulation Conference Proceedings,
  5849. Published by the Society for Computer Simulation (SCS), San Diego, CA,
  5850. pages 289-294.
  5851.  
  5852. David H. Kanecki, A.C.S., Bio. Sci.
  5853. kanecki@cs.uwp.edu
  5854.  
  5855.  
  5856. ------------------------------
  5857.  
  5858. Subject: Request
  5859. From:    pmastin@vnet.IBM.COM
  5860. Date:    Thu, 19 Aug 93 15:36:25 -0500
  5861.  
  5862. [[ Editor's Note: A common question, but I no longer have a common
  5863. answer.  What are considered the better intro books now? -PM ]]
  5864.  
  5865. I am new to neural networks, but come from a background of logic
  5866. Programming.  I am interested in learning algorthms, and have
  5867. heard NN are good for this purpose. Is there any lit. that
  5868. establishes this, that would be accessable to a neophyte like
  5869. myself?  Thanks in advance for any answers.
  5870. Pete
  5871.  
  5872.  
  5873. ------------------------------
  5874.  
  5875. Subject: Kohonen Software & Email Address
  5876. From:    Steve Greig <steve@department-computer-studies.napier.ac.uk>
  5877. Date:    Mon, 23 Aug 93 13:02:47 +0000
  5878.  
  5879. Dear All,
  5880.  
  5881. I'm looking for some source code for a Kohonen Self-Organizing Feature Map.
  5882. The language of the source code doesn't matter, just as long as it is clear
  5883. and comprehensible (comments!?).  On second thoughts, assembler language would
  5884. not be much use.  C/C++/Pascal/Oberon/Lisp/Scheme/Prolog/SML would be okay.
  5885.  
  5886. Also, does anyone know what Kohonen's email address is, or if he has one.
  5887.  
  5888. Thanks in advance,
  5889.  
  5890. Steve
  5891. - -----------------------------------------------------------------------------
  5892. Steve Greig                             email: steve@uk.ac.napier.dcs
  5893. Computer Studies Department
  5894. Napier University                       tel:   +44-31-455-4285
  5895. 219 Colinton Road                       fax:   +44-31-455-7209
  5896. Edinburgh  EH14 1DJ
  5897. Scotland
  5898.  
  5899. ------------------------------
  5900.  
  5901. Subject: Benchmarks?
  5902. From:    stjaffe@vaxsar.vassar.edu (steve jaffe)
  5903. Date:    23 Aug 93 14:20:40 -0500
  5904.  
  5905. [[ Editor's Note: I remember Scott Fahlman (at CMU?) was informally
  5906. collecting benchmarks, buty I haven't heard of those efforts for a couple
  5907. of years... -PM ]]
  5908.  
  5909. Does there exist a reasonably standard set of benchmark problems on which
  5910. to compare various algorithms with respect to speed, accuracy, ability to
  5911. generalize, etc.?   Information sent to me via email will be summarized to
  5912. the digest.
  5913. Thanks.
  5914. Steve Jaffe
  5915. Math Dept, Vassar College, Poughkeepsie NY 12601
  5916. stjaffe@vaxsar.vassar.edu
  5917.  
  5918.  
  5919.  
  5920. ------------------------------
  5921.  
  5922.  
  5923. Subject: seeking a Director for a Center for Neuroscience at Boston Univ.
  5924. From:    Announce@retina.bu.edu (Boston University Center for Adaptive Systems)
  5925. Organization: Center for Adaptive Systems, Boston University, Boston, MA, USA
  5926. Date:    25 Aug 93 18:25:20 +0000
  5927.  
  5928.  
  5929. Boston University seeks to hire a tenured full professor
  5930. to serve as the Director of a new Center for Neuroscience
  5931. on its Charles River Campus.  The director will take a
  5932. leadership role in hiring the core faculty of the center.
  5933. The director will also coordinate the development of a
  5934. graduate PhD granting program in neuroscience.  Candidates
  5935. for director should have an exceptional international
  5936. reputation as an experimental neuroscientist, preferably
  5937. in behavioral neurophysiology or related areas.  The
  5938. director should have a broad scholarly perspective in
  5939. neuroscience and demonstrated leadership skills with which
  5940. to build a world-class center.  The director would also
  5941. coordinate the process of linking the center to the multiple
  5942. neuroscience-related resources that are already part of
  5943. Boston University.  Candidates should send a complete
  5944. curriculum vitae and three letters of recommendation to
  5945. Neuroscience Search Committee, Department of Cognitive and
  5946. Neural Systems, Room 240, 111 Cummington Street, Boston
  5947. University, Boston, MA 02215.  Boston University is an
  5948. Equal Opportunity/Affirmative Action employer.
  5949.  
  5950.  
  5951. ------------------------------
  5952.  
  5953. Subject: NevProp 1.16 Update Available
  5954. From:    Phil Goodman <goodman@unr.edu>
  5955. Date:    Thu, 26 Aug 93 16:35:53 +0000
  5956.  
  5957. Please consider the following update announcement:
  5958. * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * *
  5959. NevProp 1.16 corrects a bug in the output range of symmetric sigmoids and
  5960. one occuring when the number of testing is fewer than training cases.
  5961. These fixes are further described in the README.CHANGES file at the
  5962. UNR anonymous ftp, described below.
  5963.  
  5964. The UNR anonymous ftp host is 'unssun.scs.unr.edu', and the files are
  5965. in the directory 'pub/goodman/nevpropdir'.
  5966.  
  5967. Version 1.15 users can update 3 ways:
  5968.  
  5969. a. Just re-ftp the 'nevprop1.16.shar' file and unpack and 'make' np again.
  5970.    (also available at the CMU machine, describe below.)
  5971.  
  5972. b. Just re-ftp (in "binary" mode) the DOS or MAC executable binaries
  5973.    located in the 'dosdir' or 'macdir' subdirectories, respectively.
  5974.  
  5975. c. Ftp only the 'np.c' file provided, replacing your old version, then 'make'
  5976.  
  5977. d. Ftp only the 'np-patchfile', then issue the command
  5978.   'patch < np-patchfile' to locally update np.c, then 'make' again.
  5979.  
  5980.  
  5981. New users can obtain NevProp 1.16 from the anonymous UNR anonymous ftp
  5982. as described in (a) or (b) above, or from the CMU machine:
  5983.  
  5984. a. Create an FTP connection from wherever you are to machine
  5985.        "ftp.cs.cmu.edu".  The internet address of this machine is
  5986.        128.2.206.173, for those who need it.
  5987.  
  5988. b. Log in as user "anonymous" with your own ID as password.
  5989.        You may see an error message that says "filenames may not
  5990.        have /.. in them" or something like that.  Just ignore it.
  5991.  
  5992. c. Change remote directory to "/afs/cs/project/connect/code".
  5993.        NOTE: You must do this in a single operation.  Some of the
  5994.        super directories on this path are protected against outside
  5995.        users.
  5996.  
  5997. d. At this point FTP should be able to get a listing of files
  5998.        in this directory with "dir" & fetch the ones you want with "get".
  5999.        (The exact FTP commands depend on your local FTP server.)
  6000.  
  6001. Version 1.2 will be released soon. A major new feature will be the option
  6002. of using cross-entropy rather than least squares error function.
  6003.  
  6004. Phil
  6005. ___________________________
  6006. ___________________________ Phil Goodman,MD,MS  goodman@unr.edu
  6007. | __\ | _ \ |  \/  || _ \   Associate Professor & CBMR Director
  6008. ||    ||_// ||\  /||||_//   Cardiovascular Studies Team Leader
  6009. ||    | _(  || \/ ||| _(
  6010. ||__  ||_\\ ||    |||| \\   CENTER for BIOMEDICAL MODELING RESEARCH
  6011. |___/ |___/ ||    ||||  \\  University of Nevada School of Medicine
  6012.                             Washoe Medical Center H1-166, 77 Pringle Way,
  6013.                             Reno, NV 89520   702-328-4867  FAX:328-4111
  6014.  
  6015. * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * *
  6016.  
  6017.  
  6018. ------------------------------
  6019.  
  6020. Subject: Neural hardware performance criteria
  6021. From:    Heini Withagen <heiniw@sun1.eeb.ele.tue.nl>
  6022. Date:    Fri, 27 Aug 93 14:37:13 +0100
  6023.  
  6024.  
  6025.  
  6026. Currently, several neural network chips are available, both commercially
  6027. and in laboratories. Choosing which of those chips best suits your
  6028. application can be difficult. At the moment, several criteria are
  6029. used to describe the performance of a chip, like Connections Per Second,
  6030. Connections Updates Per Second, etc. However, these criteria are very
  6031. rough and with these it is not possible to compare chips very well.
  6032.  
  6033. At our university, we have done some research to come up with better
  6034. criteria which take into account the (neural) architecture of the chip,
  6035. the speed, the sensitivity to non-idealities (like non-linear multipliers
  6036. in the case of an analog chip), etc.
  6037.  
  6038. With this posting, I am hoping to evoke some reactions to see if there
  6039. are people who are interested in this subject. Especially, reactions
  6040. from the commercial side would be welcome (Intel, Adaptive Solutions,
  6041. Hitachi, AT&T, etc.).
  6042.  
  6043. Greetings,
  6044.  
  6045. - --
  6046. Heini Withagen
  6047. Dep. of Elec. Engineering EH 9.29
  6048. Eindhoven University of Technology
  6049. P.O. Box 513                              Phone: 31-40472366
  6050. 5600 MB Eindhoven                         Fax:   31-40455674
  6051. The Netherlands                           E-mail: heiniw@eeb.ele.tue.nl
  6052.  
  6053. ========================================================================
  6054.  
  6055.  
  6056.  
  6057. ------------------------------
  6058.  
  6059. Subject: Commercial Neural Network Software
  6060. From:    manallack_d%frgen.dnet@smithkline.com (NAME "David Manallack")
  6061. Date:    Fri, 27 Aug 93 09:39:54 -0500
  6062.  
  6063.  
  6064. Dear Neuron Digest Readers
  6065.  
  6066. We are currently writing a chapter on Neural Networks in a book
  6067. titled 'Methods and Principles in Medicinal Chemistry'.  The book
  6068. is targeted at medicinal chemists interested in modern methods of
  6069. molecular design.  As you may be aware, networks have found various
  6070. uses in chemistry (e.g Quantitative Structure-Activity Relationships
  6071. (QSAR)), typically using back propagation algorithms.
  6072.  
  6073. The editors of the book have asked us to include an appendix
  6074. listing commercially available neural network software suitable
  6075. for use by medicinal chemists.
  6076.  
  6077. We would therefore like to request any interested readers to send
  6078. us the name, address and cost of any suitable software.  A brief
  6079. description would also be appreciated.
  6080.  
  6081. David Manallack      email:  manallack_d%frgen.dnet@smithkline.com
  6082.  
  6083. David Livingstone    email:  livingstondj@smithkline.com
  6084.  
  6085.  
  6086.  
  6087. ------------------------------
  6088.  
  6089. Subject: cybernetics
  6090. From:    Harry Jerison <IJC1HJJ@MVS.OAC.UCLA.EDU>
  6091. Date:    Fri, 27 Aug 93 17:29:00 -0800
  6092.  
  6093. Dear friends;
  6094. People smart enough to read & write for this forum ought to know things too.
  6095. Queries and some replies about cybernetics were inexcusably but correctably
  6096. ignorant.  Correction can begin with the review (2 columns) in SCIENCE
  6097. 257:1146 (1992) of Heims, S. J. THE CYBERNETICS GROUP (MIT Press, 1991).  Just
  6098. the review; the book is gravy.  One of the Max Planck Institutes in Germany is
  6099. on "Biological Cybernetics," and there is a scientific journal with that name
  6100. in its title.  There is a lot more, some of which is in the "What's in a name"
  6101. category, people doing cybernetics but not knowing it, or calling what they
  6102. were doing cybernetics, only because it sounded good 40 years ago (the Soviet
  6103. ploy to escape being tarnished by "psychology" when there was a USSR).  I
  6104. don't have the exchange in this Digest in front of me, but remember my
  6105. astonishment at the naivete displayed on cybernetics "vs" AI.  Some smart
  6106. people may have forgotten how to read anything but a computer monitor and only
  6107. if digital machines feed the crt.  The rest of the cure (correction) might
  6108. involve exposure to libraries and words in print.
  6109.     Harry Jerison (ijc1hjj@mvs.oac.ucla.edu - Psychiatry, UCLA)
  6110.  
  6111.  
  6112. ------------------------------
  6113.  
  6114. Subject: Help for signature verification
  6115. From:    B.NIEVOLA%CEFET.ANPR.BR@UICVM.UIC.EDU
  6116. Date:    Tue, 31 Aug 93 10:54:00 -0300
  6117.  
  6118. Dear Sir,
  6119.  
  6120.          I'm currently working with neural networks and other  AI
  6121. applications. One of such is a system for signature verification.
  6122.  
  6123.  
  6124.          I have one student that is working on another    project
  6125. and I'd like to obtain information for him. His message is:
  6126.  
  6127. "I would like to have some informations (references) about    the
  6128. applicability of neural networks in the enhancement,   limiariza_
  6129. tion and segmentation of poor quality images, more specific,   in
  6130. fingerprint images. Also, information about neural networks    in
  6131. fingerprint identification would be of great help.
  6132. Best regards,
  6133.              Marcos Lopes"
  6134.  
  6135.          Can you help him? He has no e-mail, but you can use   my
  6136. address, to communicate with him. If someone in the list    could
  6137. give some information, I appreciate. Thank you,
  6138.  
  6139. Prof. Julio Cesar Nievola
  6140. CEFET-PR
  6141. EMAIL: b.nievola@cefet.anpr.br
  6142.  
  6143.  
  6144.  
  6145. ------------------------------
  6146.  
  6147. Subject: neural network society membership
  6148. From:    rp@rdm.ch (Paulo Rios)
  6149. Date:    Tue, 31 Aug 93 18:58:06 +0000
  6150.  
  6151.  
  6152.  
  6153. Hi!
  6154.  
  6155.  
  6156. I would like to join one or two main neural network societies.
  6157.  
  6158. Does anyone out there know their e-mail or regular address? Any
  6159. information would be welcome.
  6160.  
  6161. Thank you.
  6162.  
  6163. Paul
  6164.  
  6165.  
  6166.  
  6167. ==================================================
  6168. Paul Rios
  6169. KMS Development Lab
  6170. Switzerland
  6171.  
  6172. E-mail: rp@rdm.ch
  6173. ==================================================
  6174.  
  6175.  
  6176. ------------------------------
  6177.  
  6178. Subject: neural network research centers
  6179. From:    rp@rdm.ch (Paulo Rios)
  6180. Date:    Tue, 31 Aug 93 19:14:08 +0000
  6181.  
  6182.  
  6183.  
  6184. Hi!
  6185.  
  6186. I am studying the use of neural network techniques in our software
  6187. product, a communication network (including cabling) management
  6188. system. I am also interested in doing research in some specific
  6189. areas of concern to us in the company. Information on research done
  6190. elsewhere might prove to be very useful.
  6191.  
  6192. Therefore, I would be interested in learning about the major research centers
  6193. worldwide (especially in North America, Europe and Australia),
  6194. university and industry, in neural network research.
  6195.  
  6196. Does anyone out there know of an e-mailing server, paper or book with
  6197. a list of these centers plus a brief description of their main areas of
  6198. research? What about research in the area I mentioned above?
  6199.  
  6200. Any information would be welcome.
  6201.  
  6202. Thank you.
  6203.  
  6204.  
  6205. Paul
  6206.  
  6207. ==================================================
  6208. Paul Rios
  6209. KMS Development Lab
  6210. Switzerland
  6211.  
  6212. E-mail: rp@rdm.ch
  6213. ==================================================
  6214.  
  6215.  
  6216. ------------------------------
  6217.  
  6218. End of Neuron Digest [Volume 11 Issue 50]
  6219. *****************************************
  6220. Received: from BUACCA by BUACCA.BU.EDU (Mailer R2.08 PTF009) with BSMTP id
  6221.  3391; Wed, 08 Sep 93 19:08:50 EDT
  6222. Received: from noc4.dccs.upenn.edu by BUACCA.BU.EDU (IBM VM SMTP R1.2.1) with
  6223.  TCP; Wed, 08 Sep 93 19:08:42 EDT
  6224. Received: from CATTELL.PSYCH.UPENN.EDU by noc4.dccs.upenn.edu
  6225.     id AA16555; Wed, 8 Sep 93 19:00:29 -0400
  6226. Return-Path: <marvit@cattell.psych.upenn.edu>
  6227. Received: from LOCALHOST by cattell.psych.upenn.edu
  6228.     id AA22030; Wed, 8 Sep 93 18:05:03 EDT
  6229. Posted-Date: Wed, 08 Sep 93 18:04:19 -0400
  6230. From: "Neuron-Digest Moderator" <neuron-request@CATTELL.PSYCH.UPENN.EDU>
  6231. To: Neuron-Distribution:;
  6232. Subject: Neuron Digest V12 #1 (misc queries, jobs, software)
  6233. Reply-To: "Neuron-Request" <neuron-request@CATTELL.PSYCH.UPENN.EDU>
  6234. X-Errors-To: "Neuron-Request" <neuron-request@psych.upenn.edu>
  6235. Organization: University of Pennsylvania
  6236. Date: Wed, 08 Sep 93 18:04:19 -0400
  6237. Message-Id: <21995.747525859@cattell.psych.upenn.edu>
  6238. Sender: marvit@cattell.psych.upenn.edu
  6239.  
  6240. Neuron Digest   Wednesday,  8 Sep 1993
  6241.                 Volume 12 : Issue 1
  6242.  
  6243. Today's Topics:
  6244.                         Administrivia, New Volume
  6245.      Kohonen maps & LVQ -- huge bibliography (and reference request)
  6246.                Please post this announcement of a new book
  6247.                           PC Based NN Software
  6248.                    Using artif. neural nets in QSAR's
  6249.                           nonlinear controllers
  6250.                                 SNNS-info
  6251.                               Re: Inquiries
  6252.                  Cognitive scientist position at Cornell
  6253.             AM6 Users: release notes and bug fixes available
  6254.  
  6255.  
  6256. Send submissions, questions, address maintenance, and requests for old
  6257. issues to "neuron-request@psych.upenn.edu". The ftp archives are
  6258. available from psych.upenn.edu (130.91.68.31). Back issues requested by
  6259. mail will eventually be sent, but may take a while.
  6260.  
  6261. ----------------------------------------------------------------------
  6262.  
  6263. Subject: Administrivia, New Volume
  6264. From:    "Neuron-Digest Moderator, Peter Marvit" <neuron@psych.upenn.edu>
  6265. Date:    Wed, 08 Sep 93 18:00:11 -0500
  6266.  
  6267. Dear readers,
  6268.  
  6269. As you will notice, and as has been traditional at the start of the
  6270. academic year, we begin a new volume with this issue -- V12.  The
  6271. readership has continued to grow and the master list has nearly 1800
  6272. addresses from all over the world and all types of people. Many of the
  6273. address are local redistribution aliases and one is gatewayed to the
  6274. USENET news group comp.ai.neural-networks, so the actual readership of
  6275. the Digest is quite large.
  6276.  
  6277. I want to thank you all, once again, for your continued support and
  6278. suggestions.  Without your efforts and contributions, the Digest would
  6279. not work.
  6280.  
  6281. This fall, I hope to put the back issues both on a gopher server and a
  6282. WAIS server.  In addition, I hope to get a mail server up and running so
  6283. people without Internet access can get at the archives.  I will make an
  6284. announcement when/if these happen.  I certainly know we need a table of
  6285. contents for the archives and that will be a first priority.
  6286.  
  6287. The diveristy of topics discussed in this forum reflects the diversity of
  6288. our readers.  I hope it stays that way...
  6289.  
  6290.         -Peter
  6291.  
  6292. : Peter Marvit, Neuron Digest Moderator  <neuron-request@psych.upenn.edu>  :
  6293. : Courtesy of the Psychology Department,  University of Pennsylvania       :
  6294. : 3815 Walnut St., Philadelphia, PA  19104  w:215/898-6274  h:215/387-6433 :
  6295.  
  6296.  
  6297.  
  6298. ------------------------------
  6299.  
  6300. Subject: Kohonen maps & LVQ -- huge bibliography (and reference request)
  6301. From:    Bibliography <biblio@nucleus.hut.fi>
  6302. Date:    Tue, 31 Aug 93 13:08:00 +0700
  6303.  
  6304.  
  6305. Hello,
  6306.  
  6307. We are in the process of compiling the complete bibliography
  6308. of works on Kohonen Self-Organizing Map and Learning Vector
  6309. Quantization all over the world. Currently the bibliography
  6310. contains more than 1000 entries. The bibliography is now
  6311. available (in BibTeX and PostScript formats) by anonymous FTP from:
  6312.  
  6313. cochlea.hut.fi:/pub/ref/references.bib.Z  ( BibTeX file)
  6314. cochlea.hut.fi:/pub/ref/references.ps.Z   ( PostScript file)
  6315.  
  6316. The above files are compressed. Please make sure you use "binary" mode
  6317. when you transfer these files.
  6318.  
  6319. Please send any additions and corrections to :
  6320.  
  6321.      biblio@cochlea.hut.fi
  6322.  
  6323. Please follow the IEEE instructions of references (full names of
  6324. authors, name of article, journal name, volume + number where applicable,
  6325. first and last page number, year, etc.) and BibTeX-format, if possible.
  6326.  
  6327. Yours,
  6328.         Jari Kangas
  6329.         Helsinki University of Technology
  6330.         Laboratory of Computer and Information Science
  6331.         Rakentajanaukio 2 C
  6332.         SF-02150 Espoo,
  6333.         FINLAND
  6334.  
  6335.  
  6336.  
  6337. ------------------------------
  6338.  
  6339. Subject: Please post this announcement of a new book
  6340. From:    valmir@vnet.IBM.COM
  6341. Date:    Wed, 01 Sep 93 08:58:36 -0300
  6342.  
  6343. MASSIVELY PARALLEL MODELS OF COMPUTATION
  6344. Distributed Parallel Processing in Artificial Intelligence
  6345. and Optimization
  6346.  
  6347. Valmir C. Barbosa
  6348.  
  6349. Ellis Horwood Series in Artificial Intelligence
  6350. Ellis Horwood/Simon & Schuster, 1993
  6351. telephone: +44-442-881900
  6352. fax: +44-442-882099
  6353. ISBN 0-13-562968-3, approximate price: US$ 62.95
  6354.  
  6355.  
  6356. ABSTRACT
  6357.  
  6358. This book covers the simulation by distributed parallel computers of
  6359. massively parallel models of interest in artificial intelligence and
  6360. optimization, bringing together two major areas of current interest
  6361. within computer science --- distributed parallel processing and
  6362. massively parallel models in artificial intelligence and optimization.
  6363.  
  6364. Throughout ten chapters, a series of important massively parallel
  6365. models of computation are surveyed, including cellular automata,
  6366. Hopfield neural networks, Markov random fields, Bayesian networks,
  6367. and other more specialized neural networks with important applications
  6368. to the solution of mathematical problems. Emphasis is placed on the
  6369. dynamic behavior of these models, and on how some fundamental
  6370. techniques of distributed parallel program design can be employed
  6371. for their simulation by parallel computers. In addition, the main
  6372. application areas of each model are also discussed, as well as how
  6373. the models interrelate to one another.
  6374.  
  6375. The book has been intended to have a multidisciplinary character,
  6376. and will appeal to professionals and students in a variety of fields,
  6377. as in computer science, electrical engineering, and cognitive science.
  6378.  
  6379.  
  6380. CONTENTS
  6381.  
  6382. Preface
  6383.  
  6384. PART 1. Introduction and Background
  6385.  
  6386. Chapter 1. Introduction
  6387. Chapter 2. Background
  6388.  
  6389. PART 2. Fundamentals of Distributed Parallel Computation
  6390.  
  6391. Chapter 3. Models of Distributed Parallel Computation
  6392. Chapter 4. Timing and Synchronization
  6393.  
  6394. PART 3. Fully Concurrent Automaton Networks
  6395.  
  6396. Chapter 5. Cellular Automata
  6397. Chapter 6. Analog Hopfield Neural Networks
  6398. Chapter 7. Other Analog Neural Networks
  6399.  
  6400. PART 4. Partially Concurrent Automaton Networks
  6401.  
  6402. Chapter 8. Binary Hopfield Neural Networks
  6403. Chapter 9. Markov Random Fields
  6404. Chapter 10. Bayesian Networks
  6405.  
  6406. PART 5. Appendices
  6407.  
  6408. Appendix A. A Distributed Parallel Programming Primer
  6409. Appendix B. The Software for Automaton Network Simulation
  6410. Appendix C. Long Proofs
  6411. Appendix D. Additional Edge-Reversal Properties
  6412.  
  6413. Bibliography
  6414. Author Index
  6415. Subject Index
  6416.  
  6417.  
  6418. ------------------------------
  6419.  
  6420. Subject: PC Based NN Software
  6421. From:    bcrowder@mail.lmi.org
  6422. Date:    Wed, 01 Sep 93 10:20:27 -0500
  6423.  
  6424.  
  6425.      I have just started my quest to understand NN.  I am looking at
  6426.      several products such as Ward's NeuroShell.  I would prefer to work in
  6427.      a Visual Basic 3.0 framework to failitate links to data sources.  Are
  6428.      there any products that folks have found that they like in that
  6429.      environment. Any comments on other environments on the PC would be
  6430.      appreciated.  I want to work with stock data and decision criteria for
  6431.      a buy/sell point.
  6432.  
  6433.      Thanks,
  6434.  
  6435.      Bill Crowder //bcrowder@lmi.org//
  6436.  
  6437.  
  6438. ------------------------------
  6439.  
  6440. Subject: Using artif. neural nets in QSAR's
  6441. From:    Bernard Budde <BUDDE@SC.AGRO.NL>
  6442. Date:    Wed, 01 Sep 93 17:07:00 +0000
  6443.  
  6444. Neuron Digesters,
  6445.  
  6446. In Neuron Digest 11(50), 31 Aug 1993, David Manallack wrote:
  6447. (part of the original message)
  6448. > Subject: Commercial Neural Network Software
  6449. > From:    manallack_d%frgen.dnet@smithkline.com (NAME "David Manallack")
  6450. > Date:    Fri, 27 Aug 93 09:39:54 -0500
  6451. >
  6452. >
  6453. > As you may be aware, networks have found various
  6454. > uses in chemistry (e.g Quantitative Structure-Activity Relationships
  6455. > (QSAR)), typically using back propagation algorithms.
  6456. >
  6457. > David Manallack      email:  manallack_d%frgen.dnet@smithkline.com
  6458. > David Livingstone    email:  livingstondj@smithkline.com
  6459.  
  6460. I am working in the QSAR-field and I spend a small amount of my time on neural
  6461. nets. For this purpose I use a home-brew back-prop net. So far I have seen only
  6462. very few articles on the subject, and *none* in which I find the conclusions
  6463. justified by the data.
  6464.  
  6465. Therefore, I am very interested in all information that deals with the use of
  6466. neural-nets in QSAR studies (titles, FTP-sites, code, data-sets... anything).
  6467. Please send your response to: budde@sc.agro.nl. I'll send a summary to Neuron
  6468. Digest in October.
  6469.  
  6470. >From below the sea-level, Bernard Budde                      budde@sc.agro.nl
  6471.  
  6472.  
  6473. ------------------------------
  6474.  
  6475. Subject: nonlinear controllers
  6476. From:    garcia@ece.nps.navy.mil (Randall Garcia 12-94)
  6477. Date:    Wed, 01 Sep 93 14:52:55 -0800
  6478.  
  6479. I'm looking for information on using nnets for controlling a nonlinear
  6480. plant transfer function.
  6481.  
  6482. The problem, in particular, is a derivative of the classic "broomstick"
  6483. problem in which control is applied to ensure a pendulum type set up
  6484. remains vertical when placed on a moving cart.
  6485.  
  6486. My application is that of a pitch plane controller for a tail driven
  6487. missile.  I would like to see if anyone has modelled this system and
  6488. controlled it using a nnet with backpropagation.
  6489.  
  6490. Please send info or examples to:
  6491.  
  6492. R. E. Garcia
  6493. NPS code EC
  6494. Monterey, California 93943
  6495.  
  6496. or email
  6497. garcia@ece.nps.navy.mil
  6498.  
  6499. TIA:  REG
  6500.  
  6501.  
  6502.  
  6503. ------------------------------
  6504.  
  6505. Subject: SNNS-info
  6506. From:    mph295@bio-medical-physics.aberdeen.ac.uk ("j.carson")
  6507. Date:    Thu, 02 Sep 93 12:06:45 +0000
  6508.  
  6509.  
  6510.         Hello my name is James Carson. I am doing a Phd at Aberdeen
  6511. university medical physics department. My subject is neural networks
  6512. techniques applied to medical image processing/analysis. I have just
  6513. obtained using ftp a copy of SNNS version 3.0 and am in the processes of
  6514. learning how to use it. I would greatly appreciate any feedback from
  6515. others who may have used it already. especially the ART1 and ART2
  6516. features. Also i would like to hear from anyone who has attenpted to use
  6517. neural networks to enhance images. I seem to find that most of the
  6518. techniques work well with images containing lost of nicely defined edges
  6519. but not with medical images such as mammagrams. Has anyone else had much
  6520. success with images other than black tables on white backgrounds.
  6521.  
  6522.         yours sincerely
  6523.                      James
  6524.  
  6525.                mph295@uk.ac.abdn.biomed
  6526.  
  6527.  
  6528. ------------------------------
  6529.  
  6530. Subject: Re: Inquiries
  6531. From:    David Kanecki <kanecki@cs.uwp.edu>
  6532. Date:    Fri, 03 Sep 93 14:07:14 -0600
  6533.  
  6534. Dear Peter,
  6535.  
  6536. On the 2d Neural Chess, 3d Neural Chess, and High Volume Data Analysis
  6537. Process Controllers, please contact me directly at kanecki@cs.uwp.edu.
  6538.  
  6539. On the 1992 and 1993 published papers on 2d and 3d Neural Chess respectively,
  6540. please contact the Society for Computer Simulation at (619)-277-3888.
  6541.  
  6542.  
  6543. Also, I have been appointed head of the Emergency Planning Committee for
  6544. the Society for Computer Simulation. If individuals would like to submit
  6545. papers on Emergency Planning for the April Multiconference please sent it
  6546. to:
  6547.         SCS
  6548.         1994 Simulation Multiconference/ Emergency Planning
  6549.         P.O. Box 17900
  6550.         San Diego, CA 92177
  6551.  
  6552. Thank you for your assistance.
  6553.  
  6554. Sincerely,
  6555.  
  6556. David H. Kanecki, A.C.S., Bio. Sci.
  6557. kanecki@cs.uwp.edu
  6558.  
  6559. P.O. Box 26944
  6560. Wauwatosa, WI 53226-0944
  6561.  
  6562.  
  6563. ------------------------------
  6564.  
  6565. Subject: Cognitive scientist position at Cornell
  6566. From:    tvs1@Cornell.edu (Tom Smulders)
  6567. Organization: Cornell University
  6568. Date:    08 Sep 93 18:06:43 +0000
  6569.  
  6570. COGNITIVE  PSYCHOLOGIST, CORNELL UNIVERSITY
  6571.  
  6572.         The Department of Psychology at Cornell University is considering
  6573. candidates for a tenure-track assistant professorship in any area of
  6574. cognition.  Areas of specialization include but are not limited to:
  6575. memory, attention, language and speech processing, concepts, knowledge
  6576. representation, reasoning, problem solving, decision making, mathematical
  6577. psychology, motor control and action.  The position will begin in August,
  6578. 1994.  Review of applications will begin December 1, 1993.  Cornell
  6579. University is an Equal Opportunity/Affirmative Action Employer
  6580.  
  6581.         Interested applicants should submit a curriculum vitae, reprints or
  6582. preprints of completed research, and letters of recommendation sent
  6583. directly from three referees to:
  6584.  
  6585. Secretary, Cognitive Psychology Search Committee
  6586. Department of Psychology, Uris Hall, Cornell University
  6587. Ithaca, NY  14853-7601, USA.
  6588. email: kas10@cornell.edu
  6589. FAX: 607-255-8433       Voice: 607-255-6364
  6590.  
  6591. ------------------------------
  6592.  
  6593. Subject: AM6 Users: release notes and bug fixes available
  6594. From:    Russell R Leighton <taylor@world.std.com>
  6595. Date:    Sun, 29 Aug 93 22:21:27 -0500
  6596.  
  6597.  
  6598. There has been an update to the am6.notes file at the AM6
  6599. ftp sites. User's not on the AM6 users mailing list
  6600. should get this file and update their installation.
  6601.  
  6602. Russ
  6603.  
  6604.  
  6605.  
  6606. ======== REPOST OF AM6 RELEASE (long) ========
  6607.  
  6608.  
  6609. The following describes a neural network simulation environment
  6610. made available free from the MITRE Corporation. The software
  6611. contains a neural network simulation code generator which generates
  6612. high performance ANSI C code implementations for modular backpropagation
  6613. neural networks. Also included is an interface to visualization tools.
  6614.  
  6615.                   FREE NEURAL NETWORK SIMULATOR
  6616.                            AVAILABLE
  6617.  
  6618.                         Aspirin/MIGRAINES
  6619.  
  6620.                            Version 6.0
  6621.  
  6622. The Mitre Corporation is making available free to the public a
  6623. neural network simulation environment called Aspirin/MIGRAINES.
  6624. The software consists of a code generator that builds neural network
  6625. simulations by reading a network description (written in a language
  6626. called "Aspirin") and generates an ANSI C simulation. An interface
  6627. (called "MIGRAINES") is provided to export data from the neural
  6628. network to visualization tools. The previous version (Version 5.0)
  6629. has over 600 registered installation sites world wide.
  6630.  
  6631. The system has been ported to a number of platforms:
  6632.  
  6633. Host platforms:
  6634.         convex_c2       /* Convex C2 */
  6635.         convex_c3       /* Convex C3 */
  6636.         cray_xmp        /* Cray XMP */
  6637.         cray_ymp        /* Cray YMP */
  6638.         cray_c90        /* Cray C90 */
  6639.         dga_88k         /* Data General Aviion w/88XXX */
  6640.         ds_r3k          /* Dec Station w/r3000 */
  6641.         ds_alpha        /* Dec Station w/alpha */
  6642.         hp_parisc       /* HP w/parisc */
  6643.         pc_iX86_sysvr4  /* IBM pc 386/486 Unix SysVR4 */
  6644.         pc_iX86_sysvr3  /* IBM pc 386/486 Interactive Unix SysVR3 */
  6645.         ibm_rs6k        /* IBM w/rs6000 */
  6646.         news_68k        /* News w/68XXX */
  6647.         news_r3k        /* News w/r3000 */
  6648.         next_68k        /* NeXT w/68XXX */
  6649.         sgi_r3k         /* Silicon Graphics w/r3000 */
  6650.         sgi_r4k         /* Silicon Graphics w/r4000 */
  6651.         sun_sparc       /* Sun w/sparc */
  6652.         sun_68k         /* Sun w/68XXX */
  6653.  
  6654. Coprocessors:
  6655.         mc_i860         /* Mercury w/i860 */
  6656.         meiko_i860      /* Meiko w/i860 Computing Surface */
  6657.  
  6658.  
  6659.  
  6660. Included with the software are "config" files for these platforms.
  6661. Porting to other platforms may be done by choosing the "closest"
  6662. platform currently supported and adapting the config files.
  6663.  
  6664.  
  6665. New Features
  6666. - ------------
  6667.                 - ANSI C ( ANSI C compiler required! If you do not
  6668.                   have an ANSI C compiler,  a free (and very good)
  6669.                   compiler called gcc is available by anonymous ftp
  6670.                   from prep.ai.mit.edu (18.71.0.38). )
  6671.                   Gcc is what was used to develop am6 on Suns.
  6672.  
  6673.                 - Autoregressive backprop has better stability
  6674.                   constraints (see examples: ringing and sequence),
  6675.                   very good for sequence recognition
  6676.  
  6677.                 - File reader supports "caching" so you can
  6678.                   use HUGE data files (larger than physical/virtual
  6679.                   memory).
  6680.  
  6681.                 - The "analyze" utility which aids the analysis
  6682.                   of hidden unit behavior (see examples: sonar and
  6683.                   characters)
  6684.  
  6685.                 - More examples
  6686.  
  6687.                 - More portable system configuration
  6688.                   for easy installation on systems
  6689.                   without a "config" file in distribution
  6690. Aspirin 6.0
  6691. - ------------
  6692.  
  6693. The software that we are releasing now is for creating,
  6694. and evaluating, feed-forward networks such as those used with the
  6695. backpropagation learning algorithm. The software is aimed both at
  6696. the expert programmer/neural network researcher who may wish to tailor
  6697. significant portions of the system to his/her precise needs, as well
  6698. as at casual users who will wish to use the system with an absolute
  6699. minimum of effort.
  6700.  
  6701. Aspirin was originally conceived as ``a way of dealing with MIGRAINES.''
  6702. Our goal was to create an underlying system that would exist behind
  6703. the graphics and provide the network modeling facilities.
  6704. The system had to be flexible enough to allow research, that is,
  6705. make it easy for a user to make frequent, possibly substantial, changes
  6706. to network designs and learning algorithms. At the same time it had to
  6707. be efficient enough to allow large ``real-world'' neural network systems
  6708. to be developed.
  6709.  
  6710. Aspirin uses a front-end parser and code generators to realize this goal.
  6711. A high level declarative language has been developed to describe a network.
  6712. This language was designed to make commonly used network constructs simple
  6713. to describe, but to allow any network to be described.  The Aspirin file
  6714. defines the type of network, the size and topology of the network, and
  6715. descriptions of the network's input and output. This file may also include
  6716. information such as initial values of weights, names of user defined
  6717. functions.
  6718.  
  6719. The Aspirin language is based around the concept of a "black box".
  6720. A black box is a module that (optionally) receives input and
  6721. (necessarily) produces output.  Black boxes are autonomous units
  6722. that are used to construct neural network systems.  Black boxes
  6723. may be connected arbitrarily to create large possibly heterogeneous
  6724. network systems. As a simple example, pre  or post-processing stages
  6725. of a neural network can be considered black boxes that do not learn.
  6726.  
  6727. The output of the Aspirin parser is sent to the appropriate code
  6728. generator that implements the desired neural network paradigm.
  6729. The goal of Aspirin is to provide a common extendible front-end language
  6730. and parser for different network paradigms. The publicly available software
  6731. will include a backpropagation code generator that supports several
  6732. variations of the backpropagation learning algorithm.  For backpropagation
  6733. networks and their variations, Aspirin supports a wide variety of
  6734. capabilities:
  6735.         1. feed-forward layered networks with arbitrary connections
  6736.         2. ``skip level'' connections
  6737.         3. one and two-dimensional weight tessellations
  6738.         4. a few node transfer functions (as well as user defined)
  6739.         5. connections to layers/inputs at arbitrary delays,
  6740.            also "Waibel style" time-delay neural networks
  6741.         6. autoregressive nodes.
  6742.         7. line search and conjugate gradient optimization
  6743.  
  6744. The file describing a network is processed by the Aspirin parser and
  6745. files containing C functions to implement that network are generated.
  6746. This code can then be linked with an application which uses these
  6747. routines to control the network. Optionally, a complete simulation
  6748. may be automatically generated which is integrated with the MIGRAINES
  6749. interface and can read data in a variety of file formats. Currently
  6750. supported file formats are:
  6751.         Ascii
  6752.         Type1, Type2, Type3 Type4 Type5 (simple floating point file formats)
  6753.         ProMatlab
  6754.  
  6755. Examples
  6756. - --------
  6757.  
  6758. A set of examples comes with the distribution:
  6759.  
  6760. xor: from RumelHart and McClelland, et al,
  6761. "Parallel Distributed Processing, Vol 1: Foundations",
  6762. MIT Press, 1986, pp. 330-334.
  6763.  
  6764. encode: from RumelHart and McClelland, et al,
  6765. "Parallel Distributed Processing, Vol 1: Foundations",
  6766. MIT Press, 1986, pp. 335-339.
  6767.  
  6768. bayes: Approximating the optimal bayes decision surface
  6769. for a gauss-gauss problem.
  6770.  
  6771. detect: Detecting a sine wave in noise.
  6772.  
  6773. iris: The classic iris database.
  6774.  
  6775. characters: Learing to recognize 4 characters independent
  6776. of rotation.
  6777.  
  6778. ring: Autoregressive network learns a decaying sinusoid
  6779. impulse response.
  6780.  
  6781. sequence: Autoregressive network learns to recognize
  6782. a short sequence of orthonormal vectors.
  6783.  
  6784. sonar: from  Gorman, R. P., and Sejnowski, T. J. (1988).
  6785. "Analysis of Hidden Units in a Layered Network Trained to
  6786. Classify Sonar Targets" in Neural Networks, Vol. 1, pp. 75-89.
  6787.  
  6788. spiral: from  Kevin J. Lang and Michael J, Witbrock, "Learning
  6789. to Tell Two Spirals Apart", in Proceedings of the 1988 Connectionist
  6790. Models Summer School, Morgan Kaufmann, 1988.
  6791.  
  6792. ntalk: from Sejnowski, T.J., and Rosenberg, C.R. (1987).
  6793. "Parallel networks that learn to pronounce English text" in
  6794. Complex Systems, 1, 145-168.
  6795.  
  6796. perf: a large network used only for performance testing.
  6797.  
  6798. monk: The backprop part of the monk paper. The MONK's problem were
  6799. the basis of a first international comparison
  6800. of learning algorithms. The result of this comparison is summarized in
  6801. "The MONK's Problems - A Performance Comparison of Different Learning
  6802. algorithms" by S.B. Thrun, J. Bala, E. Bloedorn, I.  Bratko, B.
  6803. Cestnik, J. Cheng, K. De Jong, S.  Dzeroski, S.E. Fahlman, D. Fisher,
  6804. R. Hamann, K. Kaufman, S. Keller, I. Kononenko, J.  Kreuziger, R.S.
  6805. Michalski, T. Mitchell, P.  Pachowicz, Y. Reich H.  Vafaie, W. Van de
  6806. Welde, W. Wenzel, J. Wnek, and J. Zhang has been published as
  6807. Technical Report CS-CMU-91-197, Carnegie Mellon University in Dec.
  6808. 1991.
  6809.  
  6810. wine: From the ``UCI Repository Of Machine Learning Databases
  6811. and Domain Theories'' (ics.uci.edu: pub/machine-learning-databases).
  6812.  
  6813. Performance of Aspirin simulations
  6814. - ----------------------------------
  6815.  
  6816. The backpropagation code generator produces simulations
  6817. that run very efficiently. Aspirin simulations do
  6818. best on vector machines when the networks are large,
  6819. as exemplified by the Cray's performance. All simulations
  6820. were done using the Unix "time" function and include all
  6821. simulation overhead. The connections per second rating was
  6822. calculated by multiplying the number of iterations by the
  6823. total number of connections in the network and dividing by the
  6824. "user" time provided by the Unix time function. Two tests were
  6825. performed. In the first, the network was simply run "forward"
  6826. 100,000 times and timed. In the second, the network was timed
  6827. in learning mode and run until convergence. Under both tests
  6828. the "user" time included the time to read in the data and initialize
  6829. the network.
  6830.  
  6831. Sonar:
  6832.  
  6833. This network is a two layer fully connected network
  6834. with 60 inputs: 2-34-60.
  6835.                                 Millions of Connections per Second
  6836.         Forward:
  6837.           SparcStation1:                    1
  6838.           IBM RS/6000 320:                  2.8
  6839.           HP9000/720:                       4.0
  6840.           Meiko i860 (40MHz) :              4.4
  6841.           Mercury i860 (40MHz) :            5.6
  6842.           Cray YMP:                         21.9
  6843.           Cray C90:                         33.2
  6844.         Forward/Backward:
  6845.           SparcStation1:                    0.3
  6846.           IBM RS/6000 320:                  0.8
  6847.           Meiko i860 (40MHz) :              0.9
  6848.           HP9000/720:                       1.1
  6849.           Mercury i860 (40MHz) :            1.3
  6850.           Cray YMP:                         7.6
  6851.           Cray C90:                         13.5
  6852.  
  6853. Gorman, R. P., and Sejnowski, T. J. (1988).  "Analysis of Hidden Units
  6854. in a Layered Network Trained to Classify Sonar Targets" in Neural Networks,
  6855. Vol. 1, pp. 75-89.
  6856.  
  6857. Nettalk:
  6858.  
  6859. This network is a two layer fully connected network
  6860. with [29 x 7] inputs: 26-[15 x 8]-[29 x 7]
  6861.                                 Millions of Connections per Second
  6862.         Forward:
  6863.           SparcStation1:                      1
  6864.           IBM RS/6000 320:                    3.5
  6865.           HP9000/720:                         4.5
  6866.           Mercury i860 (40MHz) :              12.4
  6867.           Meiko i860 (40MHz) :                12.6
  6868.           Cray YMP:                           113.5
  6869.           Cray C90:                           220.3
  6870.         Forward/Backward:
  6871.           SparcStation1:                      0.4
  6872.           IBM RS/6000 320:                    1.3
  6873.           HP9000/720:                         1.7
  6874.           Meiko i860 (40MHz) :                2.5
  6875.           Mercury i860 (40MHz) :              3.7
  6876.           Cray YMP:                           40
  6877.           Cray C90:                           65.6
  6878.  
  6879. Sejnowski, T.J., and Rosenberg, C.R. (1987).  "Parallel networks that
  6880. learn to pronounce English text" in Complex Systems, 1, 145-168.
  6881.  
  6882. Perf:
  6883.  
  6884. This network was only run on a few systems. It is very large
  6885. with very long vectors. The performance on this network
  6886. is in some sense a peak performance for a machine.
  6887.  
  6888. This network is a two layer fully connected network
  6889. with 2000 inputs: 100-500-2000
  6890.                                 Millions of Connections per Second
  6891.         Forward:
  6892.          Cray YMP               103.00
  6893.          Cray C90               220
  6894.         Forward/Backward:
  6895.          Cray YMP               25.46
  6896.          Cray C90               59.3
  6897.  
  6898. MIGRAINES
  6899. - ------------
  6900.  
  6901. The MIGRAINES interface is a terminal based interface
  6902. that allows you to open Unix pipes to data in the neural
  6903. network. This replaces the NeWS1.1 graphical interface
  6904. in version 4.0 of the Aspirin/MIGRAINES software. The
  6905. new interface is not a simple to use as the version 4.0
  6906. interface but is much more portable and flexible.
  6907. The MIGRAINES interface allows users to output
  6908. neural network weight and node vectors to disk or to
  6909. other Unix processes. Users can display the data using
  6910. either public or commercial graphics/analysis tools.
  6911. Example filters are included that convert data exported through
  6912. MIGRAINES to formats readable by:
  6913.  
  6914.         - Gnuplot 3
  6915.         - Matlab
  6916.         - Mathematica
  6917.         - Xgobi
  6918.  
  6919. Most of the examples (see above) use the MIGRAINES
  6920. interface to dump data to disk and display it using
  6921. a public software package called Gnuplot3.
  6922.  
  6923. Gnuplot3 can be obtained via anonymous ftp from:
  6924.  
  6925. >>>> In general, Gnuplot 3  is available as the file gnuplot3.?.tar.Z
  6926. >>>> Please obtain gnuplot from the site nearest you. Many of the major ftp
  6927. >>>> archives world-wide have already picked up the latest version, so if
  6928. >>>> you found the old version elsewhere, you might check there.
  6929. >>>>
  6930. >>>> NORTH AMERICA:
  6931. >>>>
  6932. >>>>      Anonymous ftp to dartmouth.edu (129.170.16.4)
  6933. >>>>      Fetch
  6934. >>>>         pub/gnuplot/gnuplot3.?.tar.Z
  6935. >>>>      in binary mode.
  6936.  
  6937. >>>>>>>> A special hack for NeXTStep may be found on 'sonata.cc.purdue.edu'
  6938. >>>>>>>> in the directory /pub/next/submissions. The gnuplot3.0 distribution
  6939. >>>>>>>> is also there (in that directory).
  6940. >>>>>>>>
  6941. >>>>>>>> There is a problem to be aware of--you will need to recompile.
  6942. >>>>>>>> gnuplot has a minor bug, so you will need to compile the command.c
  6943. >>>>>>>> file separately with the HELPFILE defined as the entire path name
  6944. >>>>>>>> (including the help file name.) If you don't, the Makefile will over
  6945. >>>>>>>> ride the def and help won't work (in fact it will bomb the program.)
  6946.  
  6947. NetTools
  6948. - -----------
  6949. We have include a simple set of analysis tools
  6950. by Simon Dennis and Steven Phillips.
  6951. They are used in some of the examples to illustrate
  6952. the use of the MIGRAINES interface with analysis tools.
  6953. The package contains three tools for network analysis:
  6954.  
  6955.         gea - Group Error Analysis
  6956.         pca - Principal Components Analysis
  6957.         cda - Canonical Discriminants Analysis
  6958.  
  6959. Analyze
  6960. - -------
  6961. "analyze" is a program inspired by Denis and Phillips'
  6962. Nettools. The "analyze" program does PCA, CDA, projections,
  6963. and histograms. It can read the same data file formats as are
  6964. supported by "bpmake" simulations and output data in a variety
  6965. of formats. Associated with this utility are shell scripts that
  6966. implement data reduction and feature extraction. "analyze" can be
  6967. used to understand how the hidden layers separate the data in order to
  6968. optimize the network architecture.
  6969.  
  6970.  
  6971. How to get Aspirin/MIGRAINES
  6972. - -----------------------
  6973.  
  6974. The software is available from two FTP sites, CMU's simulator
  6975. collection and UCLA's cognitive science machines.  The compressed tar
  6976. file is a little less than 2 megabytes.  Most of this space is
  6977. taken up by the documentation and examples. The software is currently
  6978. only available via anonymous FTP.
  6979.  
  6980. > To get the software from CMU's simulator collection:
  6981.  
  6982. 1. Create an FTP connection from wherever you are to machine "pt.cs.cmu.edu"
  6983. (128.2.254.155).
  6984.  
  6985. 2. Log in as user "anonymous" with password your username.
  6986.  
  6987. 3. Change remote directory to "/afs/cs/project/connect/code".  Any
  6988. subdirectories of this one should also be accessible.  Parent directories
  6989. should not be. ****You must do this in a single operation****:
  6990.         cd /afs/cs/project/connect/code
  6991.  
  6992. 4. At this point FTP should be able to get a listing of files in this
  6993. directory and fetch the ones you want.
  6994.  
  6995. Problems? - contact us at "connectionists-request@cs.cmu.edu".
  6996.  
  6997. 5. Set binary mode by typing the command "binary"  ** THIS IS IMPORTANT **
  6998.  
  6999. 6. Get the file "am6.tar.Z"
  7000.  
  7001. 7. Get the file "am6.notes"
  7002.  
  7003. > To get the software from UCLA's cognitive science machines:
  7004.  
  7005. 1. Create an FTP connection to "ftp.cognet.ucla.edu" (128.97.8.19)
  7006. (typically with the command "ftp ftp.cognet.ucla.edu")
  7007.  
  7008. 2. Log in as user "anonymous" with password your username.
  7009.  
  7010. 3. Change remote directory to "pub/alexis", by typing the command "cd
  7011.  pub/alexis"
  7012.  
  7013. 4. Set binary mode by typing the command "binary"  ** THIS IS IMPORTANT **
  7014.  
  7015. 5. Get the file by typing the command "get am6.tar.Z"
  7016.  
  7017. 6. Get the file "am6.notes"
  7018.  
  7019. Other sites
  7020. - -----------
  7021.  
  7022. If these sites do not work well for you, then try the archie
  7023. internet mail server. Send email:
  7024.         To: archie@cs.mcgill.ca
  7025.         Subject: prog am6.tar.Z
  7026. Archie will reply with a list of internet ftp sites
  7027. that you can get the software from.
  7028.  
  7029. How to unpack the software
  7030. - --------------------------
  7031.  
  7032. After ftp'ing the file make the directory you
  7033. wish to install the software. Go to that
  7034. directory and type:
  7035.  
  7036.         zcat am6.tar.Z | tar xvf -
  7037.  
  7038.               -or-
  7039.  
  7040.         uncompress am6.tar.Z ; tar xvf am6.tar
  7041.  
  7042. How to print the manual
  7043. - -----------------------
  7044.  
  7045. The user documentation is located in ./doc in a
  7046. few compressed PostScript files. To print
  7047. each file on a PostScript printer type:
  7048.         uncompress *.Z
  7049.         lpr -s *.ps
  7050.  
  7051. Why?
  7052. - ----
  7053.  
  7054. I have been asked why MITRE is giving away this software.
  7055. MITRE is a non-profit organization funded by the
  7056. U.S. federal government. MITRE does research and
  7057. development into various technical areas. Our research
  7058. into neural network algorithms and applications has
  7059. resulted in this software. Since MITRE is a publically
  7060. funded organization, it seems appropriate that the
  7061. product of the neural network research be turned back
  7062. into the technical community at large.
  7063.  
  7064. Thanks
  7065. - ------
  7066.  
  7067. Thanks to the beta sites for helping me get
  7068. the bugs out and make this portable.
  7069.  
  7070. Thanks to the folks at CMU and UCLA for the ftp sites.
  7071.  
  7072. Copyright and license agreement
  7073. - -------------------------------
  7074.  
  7075. Since the Aspirin/MIGRAINES system is licensed free of charge,
  7076. the MITRE Corporation provides absolutely no warranty. Should
  7077. the Aspirin/MIGRAINES system prove defective, you must assume
  7078. the cost of all necessary servicing, repair or correction.
  7079. In no way will the MITRE Corporation be liable to you for
  7080. damages, including any lost profits, lost monies, or other
  7081. special, incidental or consequential damages arising out of
  7082. the use or in ability to use the Aspirin/MIGRAINES system.
  7083.  
  7084. This software is the copyright of The MITRE Corporation.
  7085. It may be freely used and modified for research and development
  7086. purposes. We require a brief acknowledgement in any research
  7087. paper or other publication where this software has made a significant
  7088. contribution. If you wish to use it for commercial gain you must contact
  7089. The MITRE Corporation for conditions of use. The MITRE Corporation
  7090. provides absolutely NO WARRANTY for this software.
  7091.  
  7092.                 Russell Leighton                    ^    / |\ /|
  7093.                 INTERNET: taylor@world.std.com     |-|  /  | | |
  7094.                                                    | | /   | | |
  7095.  
  7096.  
  7097.  
  7098. ------------------------------
  7099.  
  7100. End of Neuron Digest [Volume 12 Issue 1]
  7101. ****************************************
  7102. Received: from BUACCA by BUACCA.BU.EDU (Mailer R2.08 PTF009) with BSMTP id
  7103.  3102; Tue, 14 Sep 93 14:35:40 EDT
  7104. Received: from noc4.dccs.upenn.edu by BUACCA.BU.EDU (IBM VM SMTP R1.2.1) with
  7105.  TCP; Tue, 14 Sep 93 14:35:36 EDT
  7106. Received: from CATTELL.PSYCH.UPENN.EDU by noc4.dccs.upenn.edu
  7107.     id AA12043; Tue, 14 Sep 93 14:25:11 -0400
  7108. Return-Path: <marvit@cattell.psych.upenn.edu>
  7109. Received: from LOCALHOST by cattell.psych.upenn.edu
  7110.     id AA07235; Tue, 14 Sep 93 13:30:22 EDT
  7111. Posted-Date: Tue, 14 Sep 93 13:28:50 -0400
  7112. From: "Neuron-Digest Moderator" <neuron-request@CATTELL.PSYCH.UPENN.EDU>
  7113. To: Neuron-Distribution:;
  7114. Subject: Neuron Digest V12 #2 (conferences and CFP)
  7115. Reply-To: "Neuron-Request" <neuron-request@CATTELL.PSYCH.UPENN.EDU>
  7116. X-Errors-To: "Neuron-Request" <neuron-request@psych.upenn.edu>
  7117. Organization: University of Pennsylvania
  7118. Date: Tue, 14 Sep 93 13:28:50 -0400
  7119. Message-Id: <7156.748027730@cattell.psych.upenn.edu>
  7120. Sender: marvit@cattell.psych.upenn.edu
  7121.  
  7122. Neuron Digest   Tuesday, 14 Sep 1993
  7123.                 Volume 12 : Issue 2
  7124.  
  7125. Today's Topics:
  7126.                               PASE workshop
  7127.                 WCCI '94 Announcement and Call for Papers
  7128.                    ICNN 94 Call for Symposia Speakers
  7129.              CALL FOR PAPERS -- NINTH GODDARD AI CONFERENCE
  7130.                  Neural Architectures and Distributed AI
  7131.                              call for papers
  7132.  
  7133.  
  7134. Send submissions, questions, address maintenance, and requests for old
  7135. issues to "neuron-request@psych.upenn.edu". The ftp archives are
  7136. available from psych.upenn.edu (130.91.68.31). Back issues requested by
  7137. mail will eventually be sent, but may take a while.
  7138.  
  7139. ----------------------------------------------------------------------
  7140.  
  7141. Subject: PASE workshop
  7142. From:    Diethelm Wuertz <wuertz@ips.id.ethz.ch>
  7143. Date:    Mon, 07 Jun 93 16:33:31 +0100
  7144.  
  7145.  
  7146.                               First Announcement
  7147.  
  7148.                                    PASE '93
  7149.               4th International Workshop on Parallel Applications
  7150.                            in Statistics and Economics
  7151.  
  7152.                  >>  Exploration of Complex Systems Dynamics  <<
  7153.  
  7154.                    Ascona, Switzerland, November 22-26, 1993
  7155.                                 Monte Verita
  7156.  
  7157.  
  7158.  
  7159.  
  7160. The purpose of this workshop is to bring together researchers interested
  7161. in innovative information processing systems and their applications in
  7162. the areas of statistics, finance and economics. The focus will be on
  7163. in-depth presentations of state-of-the-art methods and applications as
  7164. well as on communicating current research topics.  This workshop is
  7165. intended for industrial and academic persons seeking new ways of
  7166. comprehending the behavior of dynamic systems.  The PASE '93 workshop is
  7167. concerned with but not restricted to the following topics:
  7168.  
  7169.                     o  Artificial Neural Networks
  7170.                     o  Dynamical and Chaotic Systems
  7171.                     o  Fuzzy Logic
  7172.                     o  Genetic Algorithms
  7173.                     o  Stochastic Optimization
  7174.  
  7175. Organizing Committee:
  7176.  
  7177.         M. Dacorogna, O&A Zurich             H. Beran, ICS Prague
  7178.         F. Murtagh, Munotec Munich           M. Hanf, IPS ETH Zurich
  7179.         E. Pelikan, ICS Prague               A. Scheidegger, CSCS Manno
  7180.         D. Wuertz, IPS ETH Zurich            M. Tomassini, CSCS Manno
  7181.  
  7182. Please contact for further information and registration
  7183.  
  7184.                 Hynek Beran, ICS Prag
  7185.                 Pod vodarenskou vezi 2
  7186.                 182 07 PRAGUE 8, Czech Republic
  7187.                 FAX:    +42 2 858 57 89
  7188.                 E-mail: pase@uivt1.uivt.cas.cs
  7189.  
  7190. and for local arrangements
  7191.  
  7192.                 Marco Tomassini, CSCS Manno
  7193.                 Galleria 2, Via Cantonale
  7194.                 6928 MANNO, Switzerland
  7195.                 FAX:    +41 91 506711
  7196.                 E-mail: pase@cscs.ch
  7197.  
  7198. The workshop will be held near Ascona, an attractive holiday resort in
  7199. Ticino, the Italian-speaking canton of Switzerland. In keeping with the
  7200. tradition of the PASE workshop, an art exhibition as well as other social
  7201. events will be organized.
  7202.  
  7203.  
  7204. Further information will be available from anonymous ftp:
  7205. ftp maggia.ethz.ch (129.132.17.1)
  7206.  
  7207.  
  7208. ------------------------------
  7209.  
  7210. Subject: WCCI '94 Announcement and Call for Papers
  7211. From:    Gary Jacobs <gjacobs@qualcomm.com>
  7212. Date:    Fri, 11 Jun 93 11:00:40 -0800
  7213.  
  7214.  
  7215.  
  7216. Gary Jacobs
  7217. gjacobs@qualcomm.com
  7218. (619)597-5029 voice
  7219. (619)452-9096 fax
  7220.  
  7221.  
  7222. HARD FACT IN A WORLD OF FANTASY
  7223.  
  7224. A world of sheer fantasy awaits your arrival at the IEEE World Congress
  7225. on Computational Intelligence next year; our host is Walt Disney World in
  7226. Orlando Florida.  Simultaneous Neural Network, Fuzzy Logic and
  7227. Evolutionary Programming conferences will provide an unprecedented
  7228. opportunity for technical development while the charms of the nearby
  7229. Magic Kingdom and Epcot Center attempt to excite your fancies.
  7230.  
  7231. The role imagination has played in the development of Computational
  7232. Intelligence techniques is well known; before they became "innovative" the
  7233. various CI technologies were dismissed as "fantasies" of brilliant minds.
  7234.  
  7235. Now these tools are real; perhaps it's only appropriate that they should be
  7236. further explored and their creators honored in a world of the imagination, a
  7237. world where dreams come true.
  7238.  
  7239. Share your facts at Disney World; share your imagination.  Come to the IEEE
  7240. World Congress on Computational Intelligence.
  7241.  
  7242. It's as new as tomorrow.
  7243. ___________________________________________________________________________
  7244.  
  7245.                         ***CALL FOR PAPERS***
  7246.          ___________________________________________________
  7247.           IEEE WORLD CONGRESS ON COMPUTATIONAL INTELLIGENCE
  7248.          ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
  7249.          * IEEE International Conference on Neural Networks *
  7250.                           * FUZZ/IEEE '94 *
  7251.      * IEEE International Symposium on Evolutionary Computation *
  7252.  
  7253.                         June 26 - July 2, 1994
  7254.       Walt Disney World Dolphin Hotel, Lake Buena Vista, Florida
  7255.  
  7256.             Sponsored by the IEEE Neural Networks Council
  7257. - ---------------------------------------------------------------------
  7258.  
  7259.            IEEE INTERNATIONAL CONFERENCE ON NEURAL NETWORKS
  7260.  
  7261.                    Steven K. Rogers, General Chair
  7262.                          rogers@afit.af.mil
  7263. Topics:
  7264. Applications, architectures, artificially intelligent neural networks,
  7265. artificial life, associative memory, computational intelligence,
  7266. cognitive science, embedology, filtering, fuzzy neural systems, hybrid
  7267. systems, image processing, implementations, intelligent control,
  7268. learning and memory, machine vision, motion analysis, neurobiology,
  7269. neurocognition, neurodynamics, optimization, pattern recognition,
  7270. prediction, robotics, sensation and perception, sensorimotor systems,
  7271. speech, hearing and language, system identification, supervised and
  7272. unsupervised learning, tactile sensors, and time series analysis.
  7273.              -------------------------------------------
  7274.  
  7275.                             FUZZ/IEEE '94
  7276.  
  7277.                   Piero P. Bonissone, General Chair
  7278.                        bonissone@crd.ge.ge.com
  7279. Topics:
  7280. Basic principles and foundations of fuzzy logic, relations between
  7281. fuzzy logic and other approximate reasoning methods, qualitative and
  7282. approximate-reasoning modeling, hardware implementations of fuzzy-
  7283. logic algorithms, design, analysis, and synthesis of fuzzy-logic
  7284. controllers, learning and acquisition of approximate models, relations
  7285. between fuzzy logic and neural networks, integration of fuzzy logic
  7286. and neural networks, integration of fuzzy logic and evolutionary
  7287. computing, and applications.
  7288.              -------------------------------------------
  7289.  
  7290.              IEEE CONFERENCE ON EVOLUTIONARY COMPUTATION
  7291.  
  7292.                  Zbigniew Michalewicz, General Chair
  7293.                         zbyszek@mosaic.uncc.edu
  7294. Topics:
  7295. Theory of evolutionary computation, evolutionary computation
  7296. applications, efficiency and robustness comparisons with other direct
  7297. search algorithms, parallel computer applications, new ideas
  7298. incorporating further evolutionary principles, artificial life,
  7299. evolutionary algorithms for computational intelligence, comparisons
  7300. between different variants of evolutionary algorithms, machine
  7301. learning applications, evolutionary computation for neural networks,
  7302. and fuzzy logic in evolutionary algorithms.
  7303.  
  7304. - ---------------------------------------------------------------------
  7305.  
  7306.                INSTRUCTIONS FOR ALL THREE CONFERENCES
  7307.  
  7308. Papers must be received by December 10, 1993.  Papers will be reviewed
  7309. by senior researchers in the field, and all authors will be informed
  7310. of the decisions at the end of the review proces.  All accepted papers
  7311. will be published in the Conference Proceedings.  Six copies (one
  7312. original and five copies) of the paper must be submitted.  Original
  7313. must be camera ready, on 8.5x11-inch white paper, one-column format in
  7314. Times or similar fontstyle, 10 points or larger with one-inch margins
  7315. on all four sides.  Do not fold or staple the original camera-ready
  7316. copy.  Four pages are encouraged.  The paper must not exceed six pages
  7317. including figures, tables, and references, and should be written in
  7318. English.  Centered at the top of the first page should be the complete
  7319. title, author name(s), affiliation(s) and mailing address(es).  In the
  7320. accompanying letter, the following information must be included: 1)
  7321. Full title of paper, 2) Corresponding authors name, address, telephone
  7322. and fax numbers, 3) First and second choices of technical session, 4)
  7323. Preference for oral or poster presentation, and 5) Presenter's name,
  7324. address, telephone and fax numbers.  Mail papers to (and/or obtain
  7325. further information from): World Congress on Computational
  7326. Intelligence, Meeting Management, 5665 Oberlin Drive, #110, San Diego,
  7327. California 92121, USA (email: 70750.345@compuserve.com, telephone:
  7328. 619-453-6222).
  7329.  
  7330.  
  7331. ------------------------------
  7332.  
  7333. Subject: ICNN 94 Call for Symposia Speakers
  7334. From:    druck@afit.af.mil (Dennis W. Ruck)
  7335. Date:    Tue, 22 Jun 93 13:22:30 -0500
  7336.  
  7337. Greetings from ICNN 94 Program Committee!
  7338.  
  7339. The program committee for the IEEE International Conference on Neural
  7340. Networks for 1994 (ICNN 94) is now gathering nominations of prominent
  7341. researchers in the field for plenary presentations. We made up a list
  7342. of potential speakers and realized that women and minorities were not
  7343. well represented.
  7344.  
  7345.  
  7346. Please send us your suggestions of women and minority speakers to
  7347. give plenary (aka symposium) talks at the ICNN 94 conference.
  7348.  
  7349. ICNN 94 will be held June 26 - July 2, 1994 at the Walt Disney
  7350. Dolphin Hotel in Orlando, Florida as part of the World Congress on
  7351. Computational Intelligence (WCCI). FUZZ-IEEE and the IEEE
  7352. International Symposium on Evolutionary Computation make up the rest
  7353. of the WCCI. The World Cup Soccer Tournament will also be held for
  7354. the first time in the United States in Orlando, Florida concurrently
  7355. with the WCCI.
  7356.  
  7357. Steven K. Rogers                   Dennis W. Ruck
  7358. ICNN 94 General Chair              ICNN 94 U.S. Program Chair
  7359. rogers@afit.af.mil                 druck@afit.af.mil
  7360.  
  7361.  
  7362. ------------------------------
  7363.  
  7364. Subject: CALL FOR PAPERS -- NINTH GODDARD AI CONFERENCE
  7365. From:    James Rash <jim@class.gsfc.nasa.gov>
  7366. Date:    Tue, 27 Jul 93 09:47:07 -0500
  7367.  
  7368.  
  7369.                              CALL FOR PAPERS
  7370.                 The Ninth Annual Goddard Conference on
  7371.                 Space Applications of Artificial Intelligence
  7372.                             May 10 - 12, 1994
  7373.             NASA Goddard Space Flight Center, Greenbelt, MD, USA
  7374.  
  7375.  
  7376. Scope:
  7377.  
  7378. This conference will focus on AI and advanced computing technologies
  7379. relevant to space systems, space operations, and space science. The
  7380. major AI topics will include, but are not limited to:
  7381.  
  7382.         o Knowledge-based spacecraft command and control
  7383.         o Expert system management and methodologies
  7384.         o Intelligent User Interfaces
  7385.         o Distributed knowledge-based systems
  7386.         o Fault-tolerant rule-based systems
  7387.         o Simulation-based reasoning
  7388.         o Knowledge acquisition
  7389.         o Robotics and telerobotics
  7390.         o Neural networks
  7391.         o Computer Vision
  7392.  
  7393. while the major Advanced Computing Technologies will be:
  7394.  
  7395.         o Intelligent database management
  7396.         o Scientific Visualization
  7397.         o Virtual Reality
  7398.         o Planning and scheduling
  7399.         o Fault isolation and diagnosis
  7400.         o Image Processing
  7401.         o Heterogeneous Computing
  7402.         o Parallel Processing
  7403.  
  7404. Original, unpublished papers are now being solicited for the conference.
  7405. Papers must describe work with a clear AI content or be related to the
  7406. above advanced computing technology topics.  Furthermore, papers must
  7407. stress the applicability of these technology solutions to space-related
  7408. problems.  Authors are asked to submit abstracts first for initial
  7409. review.
  7410.  
  7411. Accepted papers will be presented formally or as poster presentations,
  7412. which may include demonstrations.  All accepted papers will be published
  7413. in the Conference Proceedings as an official NASA document, and select
  7414. papers may appear in a special issue of the international journal
  7415. "Telematics and Informatics".  There will be a Conference award for Best
  7416. Paper.
  7417.  
  7418. Submission:
  7419.  
  7420. Abstracts should be 300-500 words in length.  Two copies of the abstract
  7421. should be submitted by September 20, 1993 along with the author's name,
  7422. affiliation, address, e-mail address and telephone number.  Notification
  7423. of tentative acceptance will be given by October 8, 1993.  Papers should
  7424. be no longer than 15 pages and must be submitted in camera-ready form for
  7425. final acceptance by December 3, 1993.
  7426.  
  7427. Abstracts may be submitted through e-mail, FAX, or regular mail.
  7428. E-mail and FAX are preferred.
  7429.  
  7430. Submission Address:
  7431.  
  7432.         Mail:   Nick Short
  7433.                 NASA GSFC, Code 930.1
  7434.                 Building 28, Room W270
  7435.                 Greenbelt, MD 20771 USA
  7436.  
  7437.         E-mail: short@dunloggin.gsfc.nasa.gov
  7438.  
  7439.         FAX:    (301) 286-5152
  7440.  
  7441. Important Dates:
  7442.  
  7443.         Abstract Submission                     September 20, 1993
  7444.         Abstract Acceptance Notification        October 8, 1993
  7445.         Paper Submission                        December 3, 1993
  7446.  
  7447. Conference Chair:
  7448.  
  7449.                 Nick Short
  7450.                 NASA GSFC, Code 930.1
  7451.                 Greenbelt, MD 20771 USA
  7452.                 short@dunloggin.gsfc.nasa.gov
  7453.  
  7454.  
  7455. ------------------------------
  7456.  
  7457. Subject: Neural Architectures and Distributed AI
  7458. From:    Jim Liaw <liaw%dylink.usc.edu@usc.edu>
  7459. Date:    Wed, 07 Jul 93 10:36:42 -0800
  7460.  
  7461. [[ Editor's Note: Sorry, it's officially too late to submit papers, but
  7462. certainly not too late to attend. -PM ]]
  7463.  
  7464.                 ****  Call for Papers  ****
  7465.  
  7466.           Neural Architectures and Distributed AI:
  7467.          From Schema Assemblages to Neural Networks
  7468.                     October 19-20, 1993
  7469.  
  7470. The Center for Neural Engineering
  7471. University of Southern California
  7472. announces a Workshop on
  7473.  
  7474. Neural Architectures and Distributed AI:
  7475. >From Schema Assemblages to Neural Networks
  7476. October 19-20, 1993
  7477.  
  7478. [This Workshop was previously scheduled for April 1993]
  7479.  
  7480. Program Committee: Michael Arbib (Organizer), George Bekey, Damian Lyons,
  7481. Paul Rosenbloom, and Ron Sun
  7482.  
  7483. To design complex technological systems, we need a multilevel methodology
  7484. which combines a coarse-grain analysis of cooperative or distributed
  7485. computation (we shall refer to the computing agents at this level as
  7486. "schemas") with a fine-grain model of flexible, adaptive computation (for
  7487. which neural networks provide a powerful general paradigm).  Schemas
  7488. provide a language for distributed artificial intelligence and perceptual
  7489. robotics which is "in the style of the brain", but at a relatively high
  7490. level of abstraction relative to neural networks.  We seek (both at the
  7491. level of schema asemblages, and in terms of "modular" neural networks) a
  7492. distributed model of computation, supporting many concurrent activities
  7493. for recognition of objects, and the planning and control of different
  7494. activities.  The use, representation, and recall of knowledge is mediated
  7495. through the activity of a network of interacting computing agents which
  7496. between them provide processes for going from a particular situation and
  7497. a particular structure of goals and tasks to a suitable course of action.
  7498. This action may involve passing of messages, changes of state,
  7499. instantiation to add new schema instances to the network, deinstantiation
  7500. to remove instances, and may involve self-modification and
  7501. self-organization. Schemas provide a form of knowledge representation
  7502. which differs from frames and scripts by being of a finer granularity.
  7503. Schema theory is generative: schemas may well be linkedwwww to others to
  7504. provide yet more comprehensive schemas, whereas frames tend to "build in"
  7505. from the overall framework.  The analysis of interacting computing agents
  7506. (the schema instances) is intermediate between the overall specification
  7507. of some behavior and the neural networks that subserve it.  The Workshop
  7508. will focus on different facets of this multi-level methodology.  While
  7509. the emphasis will be on technological systems, papers will also be
  7510. accepted on biological and cognitive systems.
  7511.  
  7512.  
  7513. Submission of Papers
  7514.  
  7515. A list of sample topics for contributions is as follows, where a hybrid
  7516. approach means one in which the abstract schema level is integrated with
  7517. neural or other lower level models:
  7518.  
  7519. Schema Theory as a description language for neural networks
  7520.  
  7521. Modular neural networks
  7522.  
  7523. Alternative paradigms for modeling symbolic and subsymbolic knowledge
  7524.  
  7525. Hierarchical and distributed representations: adaptation and coding
  7526.  
  7527. Linking DAI to Neural Networks to Hybrid Architecture
  7528.  
  7529. Formal Theories of Schemas
  7530.  
  7531. Hybrid approaches to integrating planning & reaction
  7532.  
  7533. Hybrid approaches to learning
  7534.  
  7535. Hybrid approaches to commonsense reasoning by integrating neural networks
  7536. and rule-based reasoning (using schemas for the integration)
  7537.  
  7538. Programming Languages for Schemas and Neural Networks
  7539.  
  7540. Schema Theory Applied in Cognitive Psychology, Linguistics, and Neuroscience
  7541.  
  7542. Prospective contributors should send a five-page extended abstract, including
  7543. figures with informative captions and full references - a hard copy, either
  7544. by regular mail or fax - by August 15, 1993  to Michael Arbib, Center for
  7545. Neural Engineering, University of Southern California, Los Angeles,
  7546. CA 90089-2520, USA [Tel: (213) 740-9220, Fax: (213) 746-2863,
  7547. arbib@pollux.usc.edu].   Please include your full address, including fax and
  7548. email, on the paper.
  7549.  
  7550. In accepting papers submitted in response to this Call for Papers, preference
  7551. will be given to papers which present practical examples of, theory of, and/or
  7552. methodology for the design and analysis of complex systems in which the
  7553. overall specification or analysis is conducted in terms of a network of
  7554. interacting schemas, and where some but not necessarily all of the schemas
  7555. are implemented in neural networks.  Papers which present a single neural
  7556. network for pattern recognition ("perceptual schema") or pattern generation
  7557. ("motor schema") will not be accepted.  It is the development of a
  7558. methodology to analyze the interaction of multiple functional units that
  7559. constitutes the distinctive thrust of this Workshop.
  7560.  
  7561. Notification of acceptance or rejection will be sent by email no later than
  7562. September 1, 1993.  There are currently no plans to issue a formal
  7563. proceedings of full papers, but (revised versions) of accepted abstracts
  7564. received prior to October 1, 1993 will be collected with the full text of the
  7565. Tutorial in a CNE Technical Report which will be made available to registrants
  7566. at the start of the meeting.
  7567.  
  7568.  
  7569. A number of papers have already been accepted for the Workshop.  These
  7570. include the following:
  7571.  
  7572. Arbib: Schemas and Neural Networks: A Tutorial Introduction to Integrating
  7573. Symbolic and Subsymbolic Approaches to Cooperative Computation
  7574.  
  7575. Arkin: Reactive Schema-based Robotic Systems: Principles and Practice
  7576.  
  7577. Heenskerk and Keijzer: A Real-time Neural Implementation of a Schema Driven
  7578. Toy-Car
  7579.  
  7580. Leow and Miikkulainen, Representing and Learning Visual Schemas in Neural
  7581. Networks for Scene Analysis
  7582.  
  7583. Lyons  & Hendriks: Describing and analysing robot behavior with schema theory
  7584.  
  7585. Murphy, Lyons & Hendriks: Visually Guided Multi-Fingered Robot Hand Grasping
  7586. as Defined by Schemas and a Reactive System
  7587.  
  7588. Sun: Neural Schemas and Connectionist Logic:  A Synthesis of the Symbolic
  7589. and the Subsymbolic
  7590.  
  7591. Weitzenfeld: Hierarchy, Composition, Heterogeneity, and Multi-granularity
  7592. in Concurrent Object-Oriented Programming for Schemas and Neural Networks
  7593.  
  7594. Wilson & Hendler: Neural Network Software Modules
  7595.  
  7596. Bonus Event: The CNE Research Review: Monday, October 18, 1993
  7597.  
  7598. The CNE Review will present a day-long sampling of CNE research, with talks
  7599. by faculty, and students, as well as demos of hardware and software.  Special
  7600. attention will be paid to talks on, and demos in, our new Autonomous Robotics
  7601. Lab and Neuro-Optical Computing Lab.  Fully paid registrants of the Workshop
  7602. are entitled to attend the CNE Review at no extra charge.
  7603.  
  7604.  
  7605. Registration
  7606.  
  7607. The registration fee of $150 ($40 for qualified students who include a
  7608. "certificate of student status" from their advisor) includes a copy of the
  7609. abstracts, coffee breaks, and a dinner to be held on the evening of October
  7610. 18th.
  7611.  
  7612. Those wishing to register should send a check payable to "Center for Neural
  7613. Engineering, USC" for $150 ($40 for students and CNE members) together
  7614. with the following information to Paulina Tagle, Center for Neural
  7615. Engineering, University of Southern California, University Park, Los Angeles,
  7616. CA 90089-2520, USA.
  7617.  
  7618.  
  7619.  
  7620. - ---------------------------------------------------
  7621. SCHEMAS AND NEURAL NETWORKS
  7622. Center for Neural Engineering, USC
  7623. October 19-20, 1992
  7624. NAME:  ___________________________________________
  7625. ADDRESS: _________________________________________
  7626. PHONE NO.: _______________
  7627. FAX:___________________
  7628. EMAIL: ___________________________________________
  7629. I intend to submit a paper: YES  [   ]      NO   [   ]
  7630.  
  7631. I wish to be registered for the CNE Research
  7632. Review: YES  [   ]      NO   [   ]
  7633.  
  7634.  
  7635. Accommodation
  7636.  
  7637. Attendees may register at the hotel of their choice, but the closest hotel to
  7638. USC is the University Hilton, 3540 South Figueroa Street, Los Angeles, CA
  7639. 90007, Phone:  (213) 748-4141, Reservation: (800) 872-1104,
  7640. Fax: (213) 7480043.  A single room costs $70/night while a double room costs
  7641. $75/night.  Workshop participants must specify that they are "Schemas and
  7642. Neural Networks Workshop" attendees to avail of the above rates.
  7643. Information on student accommodation may be obtained from the Student Chair,
  7644. Jean-Marc Fellous, fellous@pollux.usc.edu.
  7645.  
  7646.  
  7647. ------------------------------
  7648.  
  7649. Subject: call for papers
  7650. From:    PIURI@IPMEL1.POLIMI.IT
  7651. Date:    27 Aug 93 13:04:14 +0000
  7652.  
  7653. =============================================================================
  7654.  
  7655. 14th IMACS WORLD CONGRESS ON COMPUTATION AND APPLIED MATHEMATICS
  7656. July 11-15, 1994
  7657. Atlanta, Georgia, USA
  7658.  
  7659. Sponsored by:
  7660. IMACS - International Association for Mathematics and Computers in Simulation
  7661. IFAC  - International Federation for Automatic Control
  7662. IFIP  - International Federation for Information Processing
  7663. IFORS - International Federation of Operational Research Societies
  7664. IMEKO - International Measurement Confederation
  7665.  
  7666. General Chairman: Prof. W.F. Ames
  7667.                   Georgia Institute of Technology, Atlanta, GA, USA
  7668.  
  7669.  
  7670. SESSIONS ON NEURAL NETWORKS
  7671.      1. NEURAL NETWORK ARCHITECTURES AND IMPLEMENTATIONS
  7672.      2. APPLICATION OF NEURAL TECHNIQUES FOR SIGNAL AND IMAGE PROCESSING
  7673.  
  7674.  
  7675.                    >>>>>>  CALL FOR PAPERS  <<<<<<
  7676.  
  7677.  
  7678. The IMACS World Congress on Computation and Applied Mathematics is held every
  7679. three year to provide a large general forum to professionals and scientists
  7680. for analyzing and discussing the fundamental advances of research in all
  7681. areas of scientific computation, applied mathematics, mathematical modelling,
  7682. and system simulation in and for specific disciplines, the philosophical
  7683. aspects, and the impact on society and on disciplinary and interdisciplinary
  7684. research.
  7685.  
  7686. In the 14th edition, two sessions are planned on neural networks: "Neural
  7687. Network Architectures and Implementations" and "Application of Neural
  7688. Techniques for Signal and Image Processing".
  7689.  
  7690. The first session will focus on all theoretical and practical aspects of
  7691. architectural design and realization of neural networks:
  7692. from mathematical analysis and modelling to behavioral specification,
  7693. from architectural definition to structural design, from VLSI implementation
  7694. to software emulation, from design simulation at any abstraction level
  7695. to CAD tools for neural design, simulation and evaluation.
  7696.  
  7697. The second session will present the concepts, the design and the use of
  7698. neural solutions within the area of signal and image processing,
  7699. e.g., for modelling, identification, analysis, classification, recognition,
  7700. and filtering. Particular emphasis will be given to presentation of
  7701. specific applications or application areas.
  7702.  
  7703. Authors interested in the above neural sessions are invited to send
  7704. a one page abstract, the title of the paper and the author's address
  7705. by electronic mail, fax or postal mail to the Neural Sessions' Chairman
  7706. by October 15, 1993.
  7707. Authors must then submit five copies of their typed manuscript by postal
  7708. mail or fax to the Neural Sessions' Chairman by November 19, 1993.
  7709. Preliminary notification of acceptance/rejection will be mailed by
  7710. November 30, 1993. Final acceptance/rejection will be mailed by January
  7711. 31, 1994.
  7712.  
  7713.  
  7714. Neural Sessions' Chairman: Prof. Vincenzo Piuri
  7715.                            Department of Electronics and Information
  7716.                            Politecnico di Milano
  7717.                            piazza L. da Vinci 32
  7718.                            I-20133 Milano, Italy
  7719.                            phone no. +39-2-23993606, +39-2-23993623
  7720.                            fax no. +39-2-23993411
  7721.                            e-mail piuri@ipmel1.polimi.it
  7722.  
  7723. =============================================================================
  7724.  
  7725.  
  7726. ------------------------------
  7727.  
  7728. End of Neuron Digest [Volume 12 Issue 2]
  7729. ****************************************
  7730. Received: from BUACCA by BUACCA.BU.EDU (Mailer R2.08 PTF009) with BSMTP id
  7731.  9775; Fri, 24 Sep 93 02:04:00 EDT
  7732. Received: from noc4.dccs.upenn.edu by BUACCA.BU.EDU (IBM VM SMTP R1.2.1) with
  7733.  TCP; Fri, 24 Sep 93 02:03:57 EDT
  7734. Received: from CATTELL.PSYCH.UPENN.EDU by noc4.dccs.upenn.edu
  7735.     id AA22948; Fri, 24 Sep 93 01:48:50 -0400
  7736. Return-Path: <marvit@cattell.psych.upenn.edu>
  7737. Received: from LOCALHOST by cattell.psych.upenn.edu
  7738.     id AA03013; Fri, 24 Sep 93 00:59:50 EDT
  7739. Posted-Date: Fri, 24 Sep 93 00:59:06 -0400
  7740. From: "Neuron-Digest Moderator" <neuron-request@CATTELL.PSYCH.UPENN.EDU>
  7741. To: Neuron-Distribution:;
  7742. Subject: Neuron Digest V12 #3 (requests, software, jobs, and such)
  7743. Reply-To: "Neuron-Request" <neuron-request@CATTELL.PSYCH.UPENN.EDU>
  7744. X-Errors-To: "Neuron-Request" <neuron-request@psych.upenn.edu>
  7745. Organization: University of Pennsylvania
  7746. Date: Fri, 24 Sep 93 00:59:06 -0400
  7747. Message-Id: <2994.748846746@cattell.psych.upenn.edu>
  7748. Sender: marvit@cattell.psych.upenn.edu
  7749.  
  7750. Neuron Digest   Friday, 24 Sep 1993
  7751.                 Volume 12 : Issue 3
  7752.  
  7753. Today's Topics:
  7754.               Request for handwriting recognition programs
  7755.    New Digest Reader seeks chaotic time series modeling and prediction
  7756.                               Stock Trading
  7757.                          Problem with Pygmalion
  7758.                           PSYCHE-D Announcement
  7759.                          New GENESIS version 1.4
  7760.                         Microcanonical Annealing
  7761.     Computational Neuroscience job at San Diego Supercomputer Center
  7762.                                NeuroWindow
  7763. Research Opportunities at the University of the West of England, Bristol
  7764.                          Research post available
  7765.                            Filtering with ANNs
  7766.                           Position announcement
  7767.                                Superchair
  7768.  
  7769.  
  7770. Send submissions, questions, address maintenance, and requests for old
  7771. issues to "neuron-request@psych.upenn.edu". The ftp archives are
  7772. available from psych.upenn.edu (130.91.68.31). Back issues requested by
  7773. mail will eventually be sent, but may take a while.
  7774.  
  7775. ----------------------------------------------------------------------
  7776.  
  7777. Subject: Request for handwriting recognition programs
  7778. From:    BKIRKLAND@rivendell.otago.ac.nz
  7779. Date:    Thu, 09 Sep 93 12:50:00 +1200
  7780.  
  7781. [[ Editor's Note: Perhaps some fellow New Zealander's might help this
  7782. fellow out?  Otherwise, perhaps those readers who have or are working in
  7783. hardwriing recognition might be able to point Brian to some appropriate
  7784. sources.  I know, for example, that the U.S. Postal Service has its test
  7785. database available for public ftp (somewhere). -PM ]]
  7786.  
  7787. SUBJECT: WANTED: Handwritten digit or character recognition software using
  7788.                  neural networks
  7789.  
  7790. As part of a dissertation, I want to compare handwritten digit or
  7791. character recognition using neural networks against the manual data entry
  7792. method. The text recognition program is to process text from document
  7793. images on disk files (the documents will have been scanned into the disk
  7794. files as a separate process) and give out suitable output (e.g. DIGIT IS
  7795. "8" or CHARACTER IS "D").  I will be recording results in the form of
  7796. times taken and error rates for experiments with the two methods.
  7797.  
  7798. I am looking for programs running under MS-DOS or Windows that perform
  7799. handwriting recognition. As a condition, the programs must use a neural
  7800. network (eg counterpropagation). These programs must not have any errors
  7801. that prevent it from running properly. They can be in .EXE form or
  7802. compilable under Borland/ Turbo C++ version 3.1.
  7803.  
  7804. I would be interested to hear about FTP sites or mailing addresses where
  7805. I could obtain such programs from. I would also be interested to hear
  7806. about commercial products fitting the above criteria.
  7807.  
  7808. Any queries or replies can be sent to me at BKIRKLAND@OTAGO.AC.NZ
  7809.  
  7810. Thank you for your attention,
  7811. Yours faithfully,
  7812. Barry Kirkland, B.Sc.
  7813. ==============================================================================
  7814.  
  7815.  
  7816. ------------------------------
  7817.  
  7818. Subject: New Digest Reader seeks chaotic time series modeling and prediction
  7819. From:    Guay Richard at caeoffice
  7820.  <smtplink%Guay_Richard_at_caeoffice@mails.imed.com>
  7821. Date:    Thu, 09 Sep 93 09:33:23 -0600
  7822.  
  7823.      Hi,
  7824.  
  7825.      My name is Richard A. Guay.  I am very interested in neural network
  7826.      application to chaotic time series modeling and prediction.  If there
  7827.      are others out there with ideals in this area or know of some
  7828.      references in this area, please let me know at
  7829.      richardg@mails.imed.com.  I am currently looking at models based on a
  7830.      shunting neural architecture.  I am also looking for a good C++ class
  7831.      library for neural network architectures.
  7832.  
  7833.      Thank you for your time and attention.
  7834.  
  7835.      RAG
  7836.  
  7837.  
  7838. ------------------------------
  7839.  
  7840. Subject: Stock Trading
  7841. From:    raethpg%wrdc.dnet@wl.wpafb.af.mil
  7842. Date:    Thu, 09 Sep 93 13:53:25 -0500
  7843.  
  7844. [[ Editor's Note: Readers are reminded that the Moderator of this Digest
  7845. should be awarded 10% of all profits made from using the ideas published
  7846. here. -PM ]]
  7847.  
  7848. Given the interest in the Digest on securities trading, I thought the
  7849. attached message would be of interest to the readers.
  7850.  
  7851. Best,
  7852. Pete.
  7853.  
  7854.  
  7855.                   I N T E R O F F I C E   M E M O R A N D U M
  7856.  
  7857.                           Date:     07-Sep-1993 06:10pm EDT
  7858.                           From:     @Sunburn.Stanford.EDU:BurmanJ
  7859.                           SUBJ:     GP and Stock Trading
  7860.  
  7861.  
  7862. (Note: GP refers to genetic programming)
  7863.  
  7864. As a GPer and registered investment advisor (great combination), I am
  7865. very familiar with the characteristics of stock trading and the potential
  7866. uses of GP towards trend prediction.  If one studies the statistical
  7867. characteristics of market activities, one finds that there is very little
  7868. correlation between current, past and future behavior of stock prices ...
  7869. this probably results from the Dow Theory which basically says that any
  7870. market advantage in price is very quickly equalized by competition from
  7871. investors and market makers (the people that control the price of stocks,
  7872. bonds, etc.).  However, if one also studies the pattern characteristics
  7873. of stock prices over time (and volume), there are definite patterns that
  7874. seem to emerge.  The real key to market prediction is to try and
  7875. characterize these patterns that can vary with time and price swings
  7876. (i.e. they are not statistically stationary).
  7877.  
  7878. >From another perspective, stock trading can be viewed as a zero sum
  7879. game between a trader, the masses and the market makers or
  7880. specialists.  You want to avoid the behavior of the masses and be
  7881. aware of the merchandising behavior of the market makers.
  7882. Moreover, volume behavior is complex and can be related to price
  7883. variation through temporal modeling.  How to combine these ideas
  7884. into a GP model is not at all easy ... also, attempting to predict
  7885. market behavior in a stock through simulation is very different
  7886. than actually trading.  Selling out your investment is the hardest
  7887. decision since sometimes it pays to cut your loses short versus
  7888. waiting for a turn around that may come over a long period of time.
  7889.  
  7890. My basic advice: you need to read several good books on the market and
  7891. really understanding the details of the market mechanisms from
  7892. fundamentals to how the market makers compete against the average
  7893. investor.  It may appear easy to try and develop a GP model for this
  7894. application, but one is competing against professional traders on the New
  7895. York Stock Exchange whose livelihood is to is take your money all the way
  7896. to their bank ... oh by the way, these market makers know who is buying
  7897. and selling and they can trade for their own accounts.
  7898.  
  7899. For further discussion and opinions, contact:
  7900.  
  7901.   Jerry Burman, jab@joker.iipo.gtegsc.com
  7902.  
  7903. - --------------- End of Message ----------------------------------
  7904.  
  7905.  
  7906. ------------------------------
  7907.  
  7908. Subject: Problem with Pygmalion
  7909. From:    dathe@arsen.chemie.ba-freiberg.de (M.Dathe +2272)
  7910. Date:    Fri, 10 Sep 93 12:57:21 +0700
  7911.  
  7912. [[ Editor's Note:  I assume pygmalian is some type of simulation
  7913. software.  However, it's new to me.  Perhaps someone has direct
  7914. experience?  -PM ]]
  7915.  
  7916. Hi evrybody,
  7917.  
  7918. Via ftp I got a copy of the pygmalion program package.
  7919.  
  7920. I tried to compile it on my IBM RS6k-355 under AIX 3.2.
  7921. With some declaration changes it wasn't a problem to compile the
  7922. sources, except of the last link.
  7923. I got an error from the linker:
  7924.    unresolved external: asciiDiskWidgetClass from AddInformation.c.
  7925. This file (AddInformation.c) is located in the pyg/src/pgm/display directory.
  7926.  
  7927. I looked for this external in all libs I have ...
  7928. I found in the include/X11/Xaw an extern declaration of asciiDiskWidgetClass,
  7929. but ...
  7930.  
  7931. Does anybody know what library is needed to link the package or
  7932. knows anybode about the problem and may help me?
  7933.  
  7934. Thank's a lot.
  7935.  
  7936. M.Dathe
  7937.  
  7938. - --------------------------------------------------------------------------
  7939. Markus Dathe                        |    dathe@arsen.chemie.ba-freiberg.de
  7940. TU Bergakademie Freiberg            |
  7941. FB Chemie, Inst. f. Analyt. Ch.     |                 T: ++49/3731/51-2272
  7942. Leipziger Str. 29                   |
  7943. 09596 Freiberg/Sa.                  |                 F: ++49/3731/51-3666
  7944. Germany                             |
  7945. - --------------------------------------------------------------------------
  7946.  
  7947.  
  7948. ------------------------------
  7949.  
  7950. Subject: PSYCHE-D Announcement
  7951. From:    X91007@pitvax.xx.rmit.edu.au
  7952. Date:    Fri, 10 Sep 93 15:39:50 -0600
  7953.  
  7954. [[ Editor's Note: I think this was announced last year.  Given the wide
  7955. interests of this Digest's readers, I thought some might be game for a
  7956. more speculative and far reaching forum of some of the stickier topics.
  7957. Perhaps it's time to spark a discussion in this Digest, again? -PM ]]
  7958.  
  7959.                 ANNOUNCEMENT OF THE PSYCHE-D DISCUSSION LIST
  7960.  
  7961.  
  7962. PSYCHE is a refereed electronic journal dedicated to supporting the
  7963. interdisciplinary exploration of the nature of consciousness and its
  7964. relation to the brain. PSYCHE publishes material relevant to that
  7965. exploration from the perspectives afforded by the disciplines of
  7966. Cognitive Science, Philosophy, Psychology, Neuroscience, Artificial
  7967. Intelligence and Anthropology.  Interdisciplinary discussions are
  7968. particularly encouraged.
  7969.  
  7970. A discussion list PSYCHE-D has been created to aid people that are
  7971. interested in the subject of consciousness. It is hoped that it will
  7972. allow members to share ideas, do common research and so on. PSYCHE-D will
  7973. also be used to discuss articles that appear in the journal of the same
  7974. name, but in addition members are invited to speak on other related
  7975. themes.
  7976.  
  7977. To subscribe, just send the command:
  7978.  
  7979. SUBSCRIBE PSYCHE-D Your Name
  7980.  
  7981. to
  7982.  
  7983. LISTSERV@NKI.BITNET
  7984.  
  7985. For general information on LISTSERV send the command "INFO PR" or "INFO ?" to
  7986. LISTSERV@NKI.BITNET.
  7987.  
  7988. Subscriptions to the e-journal PSYCHE - as opposed to the discussion
  7989. group - may be initiated by sending the "SUBSCRIBE PSYCHE-L Your Name"
  7990. one-line command (without quotes) in the body of an electronic mail
  7991. message to LISTSERV@NKI.BITNET. If you would like to have any further
  7992. questions regarding either the electronic journal or the discussion group
  7993. please contact the Executive Editor of PSYCHE:
  7994.  
  7995. Patrick Wilken
  7996. e-mail: x91007@pitvax.xx.rmit.edu.au
  7997.  
  7998.  
  7999. ------------------------------
  8000.  
  8001. Subject: New GENESIS version 1.4
  8002. From:    Jim Bower <jbower@smaug.bbb.caltech.edu>
  8003. Date:    Sun, 12 Sep 93 19:04:45 -0800
  8004.  
  8005.  
  8006. This is to announce the availability of a new release of the GENESIS
  8007. simulator.  This version (ver. 1.4.1, August 1993) is greatly improved from
  8008. the previous public release (ver. 1.1, July 1990).
  8009.  
  8010. Description:
  8011.  
  8012.         GENESIS (GEneral NEural SImulation System) is a general purpose
  8013. simulation platform which was developed to support the simulation of neural
  8014. systems ranging from complex models of single neurons to simulations of
  8015. large networks made up of more abstract neuronal components.  Most current
  8016. GENESIS applications involve realistic simulations of biological neural
  8017. systems.  Although the software can also model more abstract networks, other
  8018. simulators are more suitable for backpropagation and similar connectionist
  8019. modeling.
  8020.  
  8021. GENESIS and its graphical front-end XODUS are written in C and run on SUN
  8022. and DEC graphics work stations under UNIX (Sun version 4.0 and up, Ultrix
  8023. 3.1, 4.0 and up), and X-windows (versions X11R3, X11R4, and X11R5).  The
  8024. current version of GENESIS has also been used with Silicon Graphics (Irix
  8025. 4.0.1 and up) and the HP 700 series (HPUX).  The distribution includes full
  8026. source code and documentation for both GENESIS and XODUS as well as fourteen
  8027. demonstration and tutorial simulations.  Documentation for these simulations
  8028. is included, along with three papers that describe the general organization
  8029. of the simulator.  The distributed compressed tar file is about 3 MB in size.
  8030.  
  8031. In addition to sample simulations which demonstrate the construction of
  8032. neural simulations, the new GENESIS release contains a number of interactive
  8033. tutorials for teaching concepts in neurobiology and realistic neural
  8034. modeling.  As their use requires no knowldge of GENESIS programming, they
  8035. are suitable for use in a computer simulation laboratory which would
  8036. accompany upper division undergraduate and graduate neuroscience courses,or
  8037. for self-study.  Each of these has on-line help and a number of suggested
  8038. exercises or "experiments".  These tutorials may also be taken apart and
  8039. modified to create your own simulations, as several of them are derived from
  8040. recent research simulations.
  8041.  
  8042. The following papers give further information about GENESIS:
  8043.  
  8044.    Wilson, M. A., Bhalla, U. S., Uhley, J. D., and Bower, J. M. (1989)
  8045.    GENESIS:  A system for simulating neural networks. In: Advances in Neural
  8046.    Information Processing Systems. D. Touretzky, editor. Morgan Kaufmann,
  8047.    San Mateo, CA. pp. 485-492
  8048.  
  8049.    Matthew A. Wilson and James M. Bower, "The Simulation of Large-Scale
  8050.    Neural Networks", in Methods in Neuronal Modeling, Christof Koch and Idan
  8051.    Segev, editors. (MIT Press, 1989)
  8052.  
  8053. Acquiring GENESIS via free FTP distribution:
  8054.  
  8055.         GENESIS may be obtained via FTP from genesis.cns.caltech.edu
  8056. (131.215.137.64).  As this is a large software package, please read the
  8057. above description to determine if GENESIS is likely to be suitable for your
  8058. purposes before you follow this procedure.  To acquire the software use
  8059. 'telnet' to connect to genesis.cns.caltech.edu and login as the user
  8060. "genesis" (no password required).  If you answer all the questions asked of
  8061. you an 'ftp' account will automatically be created for you.  You can then
  8062. 'ftp' back to the machine and download the software.  Further inquiries
  8063. concerning GENESIS may be addressed to genesis@cns.caltech.edu.
  8064.  
  8065.  
  8066.  
  8067. ------------------------------
  8068.  
  8069. Subject: Microcanonical Annealing
  8070. From:    suchi@pollux.cs.uga.edu (Suchi Bhandarkar)
  8071. Date:    Thu, 16 Sep 93 12:16:47 -0500
  8072.  
  8073.  
  8074.    Could somebody provide me with a reference that contains the formal
  8075. proof of the asymptotic convergence of the Micro-Canonical
  8076. Annealing Algorithm by M. Creutz. The original paper by M. Creutz
  8077. is as follows:
  8078.  
  8079. M. Creutz, "Microcanonical Monte Carlo Simulation", in Physical
  8080. Review Letters, Vol. 50, No. 19, May 9, 1983, pp. 1411 - 1414.
  8081.  
  8082. The original paper however does not contain a formal proof
  8083. of  asymptotic convergence, only simulation results. Please
  8084. e-mail your responses to "suchi@cs.uga.edu"
  8085.  
  8086. Thank you very much,
  8087.  
  8088. Suchi Bhandarkar
  8089. Dept. of Computer Science
  8090. Univ. of Georgia
  8091. suchi@cs.uga.edu
  8092.  
  8093.  
  8094. ------------------------------
  8095.  
  8096. Subject: Computational Neuroscience job at San Diego Supercomputer Center
  8097. From:    Ken Miller <ken@phy.ucsf.edu>
  8098. Date:    Thu, 16 Sep 93 10:52:43 -0800
  8099.  
  8100. COMPUTATIONAL NEUROSCIENCE JOB:
  8101.  
  8102. I just checked with SDSC, and applications are still being accepted
  8103. for this job (ad posted below).  However, as the job has been
  8104. advertised for two months, applicants are encouraged to act quickly.
  8105.  
  8106. Ken
  8107.  
  8108.         Kenneth D. Miller               telephone: (415) 476-8217
  8109.         Dept. of Physiology             internet: ken@phy.ucsf.edu
  8110.         UCSF                            fax: (415) 476-4929
  8111.         513 Parnassus
  8112.         San Francisco, CA 94143-0444
  8113.         [Office: S-859]
  8114.  
  8115. - ----------------------------------------
  8116.  
  8117. This ad appeared in Science on July 16, 1993:
  8118.  
  8119.                 San Diego Supercomputer Center
  8120.                 -----------------------------
  8121.  
  8122. The San Diego Supercomputer Center is a National Computational Science
  8123. Laboratory operated by General Atomics and the National Science Foundation.
  8124. It serves the nationwide community of scientists and engineers.  We are
  8125. currently accepting applications for a Staff Scientist in computational
  8126. ecology, computational neurobiology, or scientific databases to join our
  8127. team of computational scientists.
  8128.  
  8129. Requirements include a Ph.D. plus postdoctoral experience in one of the
  8130. above areas.  For the computational ecology or neurobiology position, a
  8131. willingness to initiate an outreach program in, and collaborative projects
  8132. with, the research community is necessary.
  8133.  
  8134. General Atomics offers comprehensive salary and benefit plans as well as an
  8135. exciting, dynamic environment well suited to applicants who are highly
  8136. motivated and flexible.
  8137.  
  8138. Please submit your letter of application, curriculum vitae, list of
  8139. publications and three references to General Atomics, Dept. 93-23, P.O.
  8140. Box 85608, San Diego, CA  92186-9784. EEO/AAE
  8141.  
  8142. If you want further information about this position, please contact
  8143. Rozeanne Steckler (steckler@sdsc.edu, 619-534-5122) or Dan Sulzbach
  8144. (sulzbach@sdsc.edu, 619-534-5125) at SDSC.
  8145.  
  8146.  
  8147.  
  8148.  
  8149. ------------------------------
  8150.  
  8151. Subject: NeuroWindow
  8152. From:    root@luna.portal.com (ROOT)
  8153. Date:    Thu, 16 Sep 93 16:05:27 -0700
  8154.  
  8155. Does anyone one have any experience with,information or reviews
  8156. on NeuroWindows by the Ward Group. Any comments appreciated.
  8157. Thank you!
  8158. mike@luna.portal.com
  8159.  
  8160.  
  8161. ------------------------------
  8162.  
  8163. Subject: Research Opportunities at the University of the West of England,
  8164.  Bristol
  8165. From:    tcf@hal.uwe-bristol.ac.uk (Terry Fogarty)
  8166. Date:    Fri, 17 Sep 93 15:57:51 +0000
  8167.  
  8168.  
  8169. Research Opportunities at the University of the West of England, Bristol.
  8170.  
  8171. The Bristol Transputer Centre, within the Faculty of Computer Studies and
  8172. Mathematics, undertakes research and collaboration projects in parallel
  8173. and distributed computing, artificial intelligence and databases.
  8174. Following its successful rating in the recent Research Assessment
  8175. exercise, the Centre is now able to consolidate its activities and wishes
  8176. to appoint two research fellows and two research students to work within
  8177. the following areas;
  8178.  
  8179. Evolutionary Computation
  8180. Cooperating Knowledge-based Systems
  8181. Monitoring and Control of Distributed Systems
  8182. Eliciting rules using Machine Learning.
  8183.  
  8184. All posts are fixed term for a period of three years.
  8185.  
  8186. Research Fellows  REf;R/286
  8187.  
  8188. You should have a PhD and a significant research record in one of the
  8189. above areas.  Salary will be in the range 12,900 to 20,400 pounds
  8190. sterling.  For informal discussion please contact Dr Roger Miles, on
  8191. Bristol (0272) 656261 EXT 3180.  Selection will be on merit; we welcome
  8192. applications from women, black people and members of other minority
  8193. ethnic groups and disabled people who are under-represented in the
  8194. Faculty.  For further information and an application form to be returned
  8195. by 12th October 1993 please ring our 24 hour answerphone service on
  8196. Bristol (0272) 763813 or write to Personnel Services.  UWE Bristol,
  8197. Frenchay Campus, Coldharbour Lane. Bristol BS16 1QY.  Please quote the
  8198. reference number in all correspondence.
  8199.  
  8200. Research Studentships
  8201.  
  8202. You should have a good honours degree in a computing related subject. The
  8203. studentship will cover fees for registration for a higher degree and
  8204. carry a bursary of 5,400 pounds sterling which may be supplemented by
  8205. part time teaching
  8206.  
  8207. For an informal discussion please contact Dr Roger Miles on Bristol
  8208. (0272) 656261 ext 3180.  For further information please ring Mrs Fay
  8209. Coleman, The Administrator, Bristol Transputer Centre on Bristol (0272)
  8210. 656261 ext 3183.
  8211.  
  8212. ****************************************************************************
  8213.  
  8214.  
  8215. ------------------------------
  8216.  
  8217. Subject: Research post available
  8218. From:    CRReeves <srx014@cck.coventry.ac.uk>
  8219. Date:    Mon, 20 Sep 93 15:16:30 +0700
  8220.  
  8221. The following University Research Studentship is available, starting
  8222. as soon as possible:
  8223.  
  8224. "Application of neural networks to the inference of homologous DNA sequences
  8225. from related genomes"
  8226.  
  8227. This project involves the application of neural network techniques in plant
  8228. genetics. Primary DNA sequence data are being accumulated for a wide range of
  8229. organisms, and the role of model species in plant genetics is crucial in
  8230. expanding our knowledge of the fundamental mechanisms of plant development.
  8231.  
  8232. The purpose of this project is the evaluation of neurocomputing methods in
  8233. the prediction of gene sequences for a variety of agricultural species. The
  8234. work will be carried out in the School of Mathematical and Information
  8235. Sciences at Coventry University (where there is a variety of ongoing research
  8236. in the applications of neural networks), in collaboration with Horticultural
  8237. Research International at Wellesbourne, Warwickshire, where there is access to
  8238. large databases of genetic characteristics.
  8239.  
  8240. Applicants do not need a specialist background in either genetics or neural
  8241. computation; preferably, they should have a background in mathematics and
  8242. a competence in at least one high-level computing language (C, Pascal, etc.).
  8243.  
  8244. Please send CVs by email or by post to
  8245.  ___________________________________________
  8246. | Nigel Steele                              |
  8247. | Chair, Mathematics Division               |
  8248. | School of Mathematical and Information    |
  8249. | Sciences                                  |
  8250. | Coventry University                       |
  8251. | Priory St                                 |
  8252. | Coventry CV1 5FB                          |
  8253. | tel :+44 (0)203 838568                    |
  8254. | fax :+44 (0)203 838585                    |
  8255. | Email: nsteele@uk.ac.cov                  |
  8256. |___________________________________________|
  8257.  
  8258. [Message sent by Colin Reeves (CRReeves@uk.ac.cov)]
  8259.  
  8260.  
  8261.  
  8262. ------------------------------
  8263.  
  8264. Subject: Filtering with ANNs
  8265. From:    Landi Leonardo <landi@aguirre.ing.unifi.it>
  8266. Date:    Mon, 20 Sep 93 10:27:01 +0100
  8267.  
  8268. Hi everybody,
  8269.  
  8270. I am inolved in filtering a signal with an additive noise. In order to do
  8271. that, I would like to use a Neural Network. Before using one
  8272. architecture, I would like to know if there are theoretical results or
  8273. papers that have shed some light in this area.
  8274.  
  8275. Thank you very much and enjoy these last summer days.
  8276.  
  8277.       Leonardo Landi
  8278.  
  8279.       Dipartimento di Sistemi ed Informatica
  8280.       Facolta' di Ingegneria
  8281.       Universita' degli Studi di Firenze
  8282.       via Santa Marta 3
  8283.       50139 Firenze
  8284.       ITALIA
  8285.       E-Mail: landi@aguirre.ing.unifi.it
  8286.       tel: +39-55-4796365
  8287.       fax: +39-55-4796363
  8288.  
  8289.  
  8290. ------------------------------
  8291.  
  8292. Subject: Position announcement
  8293. From:    "NN.JOB" <garza@mcc.com>
  8294. Date:    Mon, 20 Sep 93 14:17:36 -0600
  8295.  
  8296. ******************* Position Announcement ******************
  8297.  
  8298. MCC (Microelectronics & Computer Technology Corp.) is one of the
  8299. countries most broad-based industry consortia.  MCC membership of almost
  8300. 100 companies/organizations includes a diverse group of electronics,
  8301. computer, aerospace, manufacturing, and other advanced technology
  8302. organizations.  MCC has an immediate opening for a Member of Technical
  8303. Staff (MTS) or Senior MTS in their Neural Network Projects.  Job
  8304. responsibilities will be to conduct applied research in one or more of
  8305. the following three areas (listed in order of importance):
  8306.  
  8307.      Intelligent financial systems,
  8308.      OCR, and
  8309.      Spectral (image/signal) processing applications
  8310.  
  8311. Required skills:
  8312.      Neural net research & development experience
  8313.      PhD in relevant area, preferably in EE, physics, or applied mathematics
  8314.      Strong quantitative skills
  8315.      C programming, UNIX background
  8316.  
  8317. Preferred skills:
  8318.      Experience in financial applications and/or time series analysis
  8319.      Demonstrated project leadership
  8320.      Strong communication skills
  8321.  
  8322. Please forward your resume and salary history to:
  8323.      MCC
  8324.      ATTN: Neural Network Job
  8325.      3500 W. Balcones Center Drive
  8326.      Austin, TX  78759
  8327.      email: nn.job@mcc.com
  8328.  
  8329.  
  8330. ------------------------------
  8331.  
  8332. Subject: Superchair
  8333. From:    "R.C. Lacher" <lacher@NU.CS.FSU.EDU>
  8334. Date:    Tue, 21 Sep 93 13:47:13 -0500
  8335.  
  8336. [[ Editor's Note: Perhaps the next endowment will be for music directors
  8337. who work on models of gelatinous suspensions? It would be called the
  8338. Superconductor Supercolloider Superchair. -PM ]]
  8339.  
  8340. I would like to call the following announcement to the attention of the
  8341. connectionists research community. Note that the position is rather wide
  8342. open as to field or home department. In particular, nominations or
  8343. applications from eminent scientists in various connectionist fields are
  8344. encouraged to apply or receive nominations.  Biology, Computer Science,
  8345. Mathematics, Physics, Psychology, and Statistics are all departments in
  8346. the college.
  8347.  
  8348.  
  8349.                               __o    __o    __o    __o    __o
  8350.                              -\<,   -\<,   -\<,   -\<,   -\<,
  8351. Chris Lacher _ _ _ _ _ _ _ _ O/_O _ O/_O _ O/_O _ O/_O _ O/_O _ _ _ _
  8352.  
  8353. Department of Computer Science           Phone:   (904) 644-4029
  8354. Florida State University                 Fax:     (904) 644-0058
  8355. Tallahassee, FL 32306-4019               Email:   lacher@cs.fsu.edu
  8356.  
  8357. ===================================================================
  8358.  
  8359.        The Thinking Machines Corporation Eminent Scholar Chair
  8360.                                  in
  8361.                     High Performance Computing
  8362.  
  8363.  
  8364. Applications and nominations are invited for the TMC Eminent Scholar
  8365. Chair in High Performance Computing at Florida State University. This
  8366. position is supported, in part, by a $4 million endowment and will be
  8367. filled at a senior level in the College of Arts and Sciences.
  8368.  
  8369. Applicants and nominees should have a distinguished academic or
  8370. research record in one or more fields closely associated with modern
  8371. high performance computing. These fields include applied mathematics,
  8372. applied computer science, and computational science in one or more
  8373. scientific or engineering disciplines. The appointment will be in one or
  8374. more academic departments and in the Supercomputer Computations
  8375. Research Institute (SCRI).
  8376.  
  8377. The primary responsibilities of the successful candidate will be to
  8378. establish new research and education directions in high performance
  8379. computing that complement the existing strong programs in SCRI, the
  8380. National High Magnetic Field Laboratory, the Structural Biology
  8381. Institute, the Global Climate Research Institute, and the academic
  8382. departments. The Chair will be closely involved with the addition of several
  8383. junior level academic appointments in connection with this new initiative in
  8384. high performance computing in order to establish the strongest possible
  8385. group effort.
  8386.  
  8387. The deadline for applications is December 17, 1993. Applications and
  8388. nominations should be sent to: HPC Chair Selection Committee,
  8389. Mesoscale Air-Sea Interaction Group, Florida State University 32306-3041.
  8390.  
  8391. Florida State University is an Equal Opportunity/Equal Access/Affirmative
  8392. Action Employer. Women and minorities are encouraged to apply.
  8393.  
  8394.  
  8395.  
  8396.  
  8397.  
  8398.  
  8399. ------------------------------
  8400.  
  8401. End of Neuron Digest [Volume 12 Issue 3]
  8402. ****************************************
  8403.