home *** CD-ROM | disk | FTP | other *** search
/ Hacker Chronicles 2 / HACKER2.BIN / 349.NEURON < prev    next >
Text File  |  1993-03-01  |  115KB  |  2,699 lines

  1. Received: from BUACCA by BUACCA.BU.EDU (Mailer R2.08 PTF009) with BSMTP id
  2.  6577; Fri, 19 Feb 93 01:31:27 EST
  3. Received: from noc2.dccs.upenn.edu by BUACCA.BU.EDU (IBM VM SMTP R1.2.1) with
  4.  TCP; Fri, 19 Feb 93 01:31:24 EST
  5. Received: from CATTELL.PSYCH.UPENN.EDU by noc2.dccs.upenn.edu
  6.     id AA16068; Fri, 19 Feb 93 01:28:48 -0500
  7. Return-Path: <marvit@cattell.psych.upenn.edu>
  8. Received: from LOCALHOST by cattell.psych.upenn.edu
  9.     id AA28888; Fri, 19 Feb 93 00:23:09 EST
  10. Posted-Date: Fri, 19 Feb 93 00:22:32 EST
  11. From: "Neuron-Digest Moderator" <neuron-request@cattell.psych.upenn.edu>
  12. To: Neuron-Distribution:;
  13. Subject: Neuron Digest V11 #12 (mailing lists & lots of discussion)
  14. Reply-To: "Neuron-Request" <neuron-request@cattell.psych.upenn.edu>
  15. X-Errors-To: "Neuron-Request" <neuron-request@cattell.psych.upenn.edu>
  16. Organization: University of Pennsylvania
  17. Date: Fri, 19 Feb 93 00:22:32 EST
  18. Message-Id: <28852.730099352@cattell.psych.upenn.edu>
  19. Sender: marvit@cattell.psych.upenn.edu
  20.  
  21. Neuron Digest   Friday, 19 Feb 1993
  22.                 Volume 11 : Issue 12
  23.  
  24. Today's Topics:
  25.                 BIOSCI/bionet Frequently Asked Questions
  26.                mailing list for cognitive neuroscientists
  27.                  NATO ASI: March 5 Deadline Approaching
  28.                                  VLSI NN
  29.         Re: "neural-net based software for digitization of maps"
  30.            Applications for particle track segment detection??
  31.                            Pattern Recognition
  32.                              Re: chip design
  33.         neural net applications to fixed-income security markets
  34.                           Room sharing for ICNN
  35.         pattern recognition (pratical database considerations) ?
  36.  
  37.  
  38. Send submissions, questions, address maintenance, and requests for old
  39. issues to "neuron-request@cattell.psych.upenn.edu". The ftp archives are
  40. available from cattell.psych.upenn.edu (130.91.68.31). Back issues
  41. requested by mail will eventually be sent, but may take a while.
  42.  
  43. ----------------------------------------------------------------------
  44.  
  45. Subject: BIOSCI/bionet Frequently Asked Questions
  46. From:    Dave Kristofferson <kristoff@net.bio.net>
  47.  
  48. [[ Editor's Note: This contains the information about the Neuroscience
  49. list which many of you readers have asked about.  The entire file is
  50. about 48K long, so I've heavily edited the following with enough
  51. information about the Neuroscience list for you.  If you (or colleagues)
  52. are biologically oriented (e.g., genetic sequencing, molecular biology,
  53. tropical ecology, etc), I highly recommend the BIOSCI/bionet resources.
  54. Consider browsing through the newsgroups or archives. -PM ]]
  55.  
  56.             BIOSCI/bionet Frequently Asked Questions (FAQ)
  57.             ----------------------------------------------
  58.                       (last revised - 1/15/93)
  59.  
  60. This document describes the general purpose and uses of the
  61. BIOSCI/bionet newsgroups and provides details on how to participate in
  62. these forums.  It is available for anonymous FTP from net.bio.net
  63. [134.172.2.69] in pub/BIOSCI/biosci.FAQ.  This document may also be
  64. requested by e-mail to biosci@net.bio.net (use plain English - this is
  65. not a server address).  It is posted the first of each month to the
  66. BIONEWS/bionet.announce newsgroup along with the BIOSCI information
  67. sheet and the list of changes to the newsgroups during the preceding
  68. month.  The FAQ is also posted monthly to the USENET newsgroup
  69. news.answers and is archived along with other USENET newsgroup FAQs at
  70. pit-manager.mit.edu [18.172.1.27].
  71.  
  72. [[...]]
  73.  
  74. Dissemination is by normal electronic mail and also over USENET in the
  75. form of the "bionet" newsgroups (see below for USENET details).  The
  76. contents of the electronic mail distribution is identical to the USENET
  77. news distribution, but we encourage BIOSCI users to access the system
  78. through USENET news software whenever possible.  E-mail distributions may
  79. eventually be phased out.  As of October 1992, 59% of our readers used
  80. USENET news software instead of e-mail.
  81.  
  82. [[...]]
  83.  
  84. Two versions of the BIOSCI info sheet are available, one for the Americas
  85. and the Pacific Rim countries, and the second for Europe, Africa, and
  86. Central Asia.  The former may be requested by e-mail to
  87. biosci@net.bio.net, while the latter may be requested from
  88. biosci@daresbury.ac.uk.
  89.  
  90. [[...]]
  91.  
  92. How do I request or cancel e-mail subscriptions to BIOSCI newsgroups?
  93. - ---------------------------------------------------------------------
  94.  
  95. If you have access to USENET news software, then YOU DO NOT NEED AN
  96. E-MAIL SUBSCRIPTION!  Only those people who need to receive postings
  97. by e-mail must request to be added to the mailing lists.  USENET users
  98. can simply read the various bionet newsgroups using their news
  99. software.  If your site has USENET news but does not get the bionet
  100. newsgroups, please request help by sending a message to
  101. biosci@net.bio.net.
  102.  
  103. For those who need e-mail subscriptions or who want to cancel current
  104. e-mail subscriptions, please send a request to one of the following
  105. addresses.  Please choose the site that serves your location.  Simply
  106. pick the newsgroup(s) from the list above that you wish to subscribe
  107. to and request that your address be added to the chosen mailing lists.
  108. Please use plain English; no special message syntax is required in
  109. your subscription or cancellation request.
  110.  
  111. Address                               Serving
  112. - -------                               -------
  113. biosci@net.bio.net                    The Americas and Pacific Rim
  114. biosci@daresbury.ac.uk                Europe, Africa, and Central Asia
  115.  
  116. ****If you are changing e-mail addresses****, please be sure to send a
  117. message to your appropriate biosci address above and request that your
  118. subscriptions be changed or canceled!!
  119.  
  120.  
  121. How can I get a list of newsgroups or my subscriptions?
  122. - -------------------------------------------------------
  123.  
  124. As with any other subscription correspondence, simply send a request
  125. to your appropriate BIOSCI distribution site:
  126.  
  127. Address                               Serving
  128. - -------                               -------
  129. biosci@net.bio.net                    The Americas and Pacific Rim
  130. biosci@daresbury.ac.uk                Europe, Africa, and Central Asia
  131.  
  132. The most recent list of BIOSCI newsgroups/mailing addresses and the
  133. latest revision of the BIOSCI/bionet FAQ are posted the first of each
  134. month on the BIONEWS/bionet.announce newsgroup.  You should save these
  135. postings for future reference.
  136.  
  137. [[...]]
  138.  
  139.  
  140. MAILING LIST NAME          USENET Newsgroup Name
  141. - -----------------          ---------------------
  142. AGEING                     bionet.molbio.ageing
  143. AGROFORESTRY               bionet.agroforestry
  144. ARABIDOPSIS                bionet.genome.arabidopsis
  145. BIOFORUM                   bionet.general
  146. BIO-INFORMATION-THEORY +   bionet.info-theory
  147. BIONAUTS                   bionet.users.addresses
  148. BIONEWS **                 bionet.announce
  149. BIO-JOURNALS               bionet.journals.contents
  150. BIO-MATRIX                 bionet.molbio.bio-matrix
  151. BIO-SOFTWARE               bionet.software
  152. CHROMOSOME-22              bionet.genome.chrom22
  153. COMPUTATIONAL-BIOLOGY **   bionet.biology.computational
  154. EMBL-DATABANK              bionet.molbio.embldatabank
  155. EMPLOYMENT                 bionet.jobs
  156. GDB                        bionet.molbio.gdb
  157. GENBANK-BB                 bionet.molbio.genbank
  158. GENETIC-LINKAGE            bionet.molbio.gene-linkage
  159. HIV-MOLECULAR-BIOLOGY      bionet.molbio.hiv
  160. HUMAN-GENOME-PROGRAM       bionet.molbio.genome-program
  161. IMMUNOLOGY                 bionet.immunology
  162. JOURNAL-NOTES              bionet.journals.note
  163. METHODS-AND-REAGENTS       bionet.molbio.methds-reagnts
  164. MOLECULAR-EVOLUTION        bionet.molbio.evolution
  165. NEUROSCIENCE               bionet.neuroscience
  166. PLANT-BIOLOGY              bionet.plants
  167. POPULATION-BIOLOGY         bionet.population-bio
  168. PROTEIN-ANALYSIS           bionet.molbio.proteins
  169. PROTEIN-CRYSTALLOGRAPHY    bionet.xtallography
  170. SCIENCE-RESOURCES          bionet.sci-resources
  171. TROPICAL-BIOLOGY           bionet.biology.tropical
  172. VIROLOGY                   bionet.virology
  173. WOMEN-IN-BIOLOGY           bionet.women-in-bio
  174.  
  175. + full name is BIOLOGICAL-INFORMATION-THEORY-AND-CHOWDER-SOCIETY
  176.  
  177. ** Note that newsgroups flagged with ** are moderated, i.e., postings
  178. are directed to a moderator (editor) who later forwards messages
  179. (possibly edited or condensed) to the newsgroup.
  180.  
  181.  
  182. NEWSGROUP NAME               TOPIC
  183. - --------------               -----
  184. AGEING                       Discussions about ageing research
  185. AGROFORESTRY                 Discussions about agroforestry research
  186. ARABIDOPSIS                  Newsgroup for the Arabidopsis Genome Project
  187. BIOFORUM                     Discussions about biological topics for
  188.                                 which there is not yet a dedicated newsgroup
  189. BIOLOGICAL-INFORMATION-
  190.   THEORY-AND-CHOWDER-SOCIETY Applications of information theory to biology
  191. BIONAUTS                     Question/answer forum for help using
  192.                                 electronic networks, locating e-mail
  193.                                 addresses, etc.
  194. BIONEWS **                   General announcements of widespread
  195.                                 interest to biologists
  196. BIO-JOURNALS                 Tables of Contents of biological journals
  197. BIO-MATRIX                   Applications of computers to biological databases
  198. BIO-SOFTWARE                 Information on software for the biological
  199.                                 sciences
  200. CHROMOSOME-22                Mapping and Sequencing of Human Chromosome 22
  201. COMPUTATIONAL-BIOLOGY **     Mathematical and computer applications in biology
  202. EMBL-DATABANK                Messages to and from the EMBL database staff
  203. EMPLOYMENT                   Job opportunities
  204. GDB                          Messages to and from the Genome Data Bank staff
  205. GENBANK-BB                   Messages to and from the GenBank database staff
  206. GENETIC-LINKAGE              Newsgroup for genetic linkage analysis
  207. HIV-MOLECULAR-BIOLOGY        Discussions about the molecular biology of HIV
  208. HUMAN-GENOME-PROGRAM         NIH-sponsored newsgroup on human genome issues
  209. IMMUNOLOGY                   Discussions about research in immunology
  210. JOURNAL-NOTES                Practical advice on dealing with professional
  211.                                journals
  212. METHODS-AND-REAGENTS         Requests for information and lab reagents
  213. MOLECULAR-EVOLUTION          Discussions about research in molecular evolution
  214. NEUROSCIENCE                 Discussions about research in the neurosciences
  215. PLANT-BIOLOGY                Discussions about research in plant biology
  216. POPULATION-BIOLOGY           Discussions about research in population biology
  217. PROTEIN-ANALYSIS             Discussions about research on proteins and
  218.                                 messages for the PIR and SWISS-PROT databank
  219.                                 staffs.
  220. PROTEIN-CRYSTALLOGRAPHY      Discussion about crystallography of macromolecules
  221.                                 and messages for the PDB staff
  222. SCIENCE-RESOURCES            Information from/about scientific funding
  223.                                 agencies
  224. TROPICAL-BIOLOGY             Discussions about research in tropical biology
  225. VIROLOGY                     Discussions about research in virology
  226. WOMEN-IN-BIOLOGY             Discussions about issues concerning women
  227.                                 biologists
  228.  
  229. ** Note that newsgroups flagged with ** are moderated, i.e., postings
  230. are directed to a moderator (editor) who later forwards messages
  231. (possibly edited or condensed) to the newsgroup.
  232.  
  233.  
  234. ------------------------------
  235.  
  236. Subject: mailing list for cognitive neuroscientists
  237. From:    kpc@pluto.arc.nasa.gov (k p c)
  238. Organization: NASA Ames Research Center AI Research Branch; Sterling.
  239. Date:    27 Oct 92 01:26:08 +0000
  240.  
  241. [[ Editor's Note: Here is another mailing list of interest to some.  I
  242. attempted to joi, but have received nothing.  I sent a new message a
  243. couple of days ago, still without reply.  I can therefore not personally
  244. vouch for this list's existance. -PM ]]
  245.  
  246. ANNOUNCEMENT OF THE COGNEURO (COGNITIVE NEUROSCIENCE) MAILING LIST
  247.  
  248. SUBJECT
  249.  
  250. this list is an informal, intentionally low-volume way to discuss
  251. matters at the interface of cognitive science and neuroscience.
  252.  
  253. the discussion will be scientific and academic, covering biological aspects
  254. of behavior and cognitive issues in neuroscience.  also discussable are
  255. curricula, graduate programs, and jobs in the field.
  256.  
  257. HOW TO USE THE LIST
  258.  
  259. please follow these examples exactly, so that my software works.
  260.  
  261. to SUBSCRIBE, send mail like this.
  262.  
  263.         To: cogneuro-request@ptolemy.arc.nasa.gov
  264.         Subject: cogneuro: subscribe
  265.  
  266. to UNSUBSCRIBE, send mail like this.
  267.  
  268.         To: cogneuro-request@ptolemy.arc.nasa.gov
  269.         Subject: cogneuro: unsubscribe
  270.  
  271. you don't need to put anything in the body of the message.  there will be
  272. no automatic confirmation, but you might get a note from me.
  273.  
  274. to CHANGE YOUR EMAIL ADDRESS (also very polite to do if you know that your
  275. MACHINE WILL GO DOWN for a while, or in case you LEAVE THE NET) simply
  276. unsubscribe from your old address and resubscribe from your new address.
  277. this prevents error messages and prevents me from having to verify your
  278. address manually.
  279.  
  280. to POST (send a message to everybody on the list), send mail to
  281. cogneuro@ptolemy.arc.nasa.gov, or followup to an existing message.
  282.  
  283. e.g.
  284.  
  285.         To: cogneuro@ptolemy.arc.nasa.gov
  286.         Subject: corpus callosum
  287.  
  288. to ask a METAQUESTION, send it to cogneuro-request@ptolemy.arc.nasa.gov.
  289. suggestions for improving this announcement or the list are welcome.
  290.  
  291. GUIDELINES
  292.  
  293. the language of the list is english.
  294.  
  295. the list is meant to be low in volume and high in s/n ratio.  since
  296. cogneuro is a huge field, submissions shouldn't be too off-topic or
  297. otherwise not essentially scientific or academic.
  298.  
  299. controversy and speculation are welcome, as are lack of controversy and
  300. rigor.  since the emphasis is scientific and academic, participants are
  301. expected to be extremely tolerant of other participants' opinions and
  302. choice of words.
  303.  
  304. the list is initially open to anybody who is interested.  although i don't
  305. expect ever to need to exercise it, i reserve the right to remove anybody
  306. from the list if there are problems.  i want to keep a spirit of free
  307. exchange of cognitive neuroscience.
  308.  
  309. other than this, the list is unmoderated and informal.
  310.  
  311. ------------------------------
  312.  
  313. Subject: NATO ASI: March 5 Deadline Approaching
  314. From:    John Moody <moody@chianti.cse.ogi.edu>
  315. Date:    Thu, 04 Feb 93 17:38:08 -0800
  316.  
  317. As the March 5th application deadline is now four weeks away, I am
  318. posting this notice again.
  319.  
  320.  
  321.                   NATO Advanced Studies Institute (ASI) on
  322.  
  323.                        Statistics and Neural Networks
  324.  
  325.                   June 21 - July 2, 1993, Les Arcs, France
  326.  
  327. Directors:
  328. Professor Vladimir Cherkassky, Department of Electrical Eng., University of
  329. Minnesota, Minneapolis, MN  55455, tel.(612)625-9597, fax (612)625-
  330. 4583, email cherkass@ee.umn.edu
  331. Professor Jerome H. Friedman, Statistics Department, Stanford University,
  332. Stanford, CA 94309 tel(415)723-9329, fax(415)926-3329, email
  333. jhf@playfair.stanford.edu
  334. Professor Harry Wechsler, Computer Science Department, George Mason
  335. University, Fairfax VA22030, tel(703)993-1533, fax(703)993-1521, email
  336. wechsler@gmuvax2.gmu.edu
  337.  
  338. List of invited lecturers: I. Alexander, L. Almeida, A. Barron, A. Buja,
  339. E.  Bienenstock, G. Carpenter, V. Cherkassky, T. Hastie, F. Fogelman, J.
  340. Friedman, H. Freeman, F. Girosi, S. Grossberg, J. Kittler, R. Lippmann,
  341. J.  Moody, G. Palm, R. Tibshirani, H. Wechsler, C. Wellekens
  342.  
  343. Objective, Agenda and Participants: Nonparametric estimation is a problem
  344. of fundamental importance for many applications involving pattern
  345. classification and discrimination. This problem has been addressed in
  346. Statistics, Pattern Recognition, Chaotic Systems Theory, and more
  347. recently in Artificial Neural Network (ANN) research. This ASI will bring
  348. together leading researchers from these fields to present an up-to-date
  349. review of the current state-of-the art, to identify fundamental concepts
  350. and trends for future development, to assess the relative advantages and
  351. limitations of statistical vs neural network techniques for various
  352. pattern recognition applications, and to develop a coherent framework for
  353. the joint study of Statistics and ANNs. Topics range from theoretical
  354. modeling and adaptive computational methods to empirical comparisons
  355. between statistical and neural network techniques. Lectures will be
  356. presented in a tutorial manner to benefit the participants of ASI. A
  357. two-week programme is planned, complete with lectures,
  358. industrial/government sessions, poster sessions and social events. It is
  359. expected that over seventy students (which can be researchers or
  360. practitioners at the post-graduate or graduate level) will attend, drawn
  361. from each NATO country and from Central and Eastern Europe. The
  362. proceedings of ASI will be published by Springer-Verlag.
  363.  
  364. Applications: Applications for participation at the ASI are sought.
  365. Prospective students, industrial or government participants should send a
  366. brief statement of what they intend to accomplish and what form their
  367. participation would take. Each application should include a curriculum
  368. vitae, with a brief summary of relevant scientific or professional
  369. accomplishments, and a documented statement of financial need (if funds
  370. are applied for).  Optionally, applications may include a one page
  371. summary for making a short presentation at the poster session. Poster
  372. presentations focusing on comparative evaluation of statistical and
  373. neural network methods and application studies are especially sought. For
  374. junior applicants, support letters from senior members of the
  375. professional community familiar with the applicant's work would
  376. strengthen the application. Prospective participants from Greece,
  377. Portugal and Turkey are especially encouraged to apply.
  378.  
  379. Costs and Funding: The estimated cost of hotel accommodations and meals
  380. for the two-week duration of the ASI is US$1,600. In addition,
  381. participants from industry will be charged an industrial registration
  382. fee, not to exceed US$1,000. Participants representing industrial
  383. sponsors will be exempt from the fee. We intend to subsidize costs of
  384. participants to the maximum extent possible by available funding.
  385. Prospective participants should also seek support from their national
  386. scientific funding agencies. The agencies, such as the American NSF or
  387. the German DFG, may provide some ASI travel funds upon the recommendation
  388. of an ASI director. Additional funds exist for students from Greece,
  389. Portugal and Turkey. We are also seeking additional sponsorship of ASI.
  390. Every sponsor will be fully acknowledged at the ASI site as well as in
  391. the printed proceedings.
  392.  
  393.  
  394. Correspondence and Registration:  Applications  should be forwarded to
  395. Dr. Cherkassky at the above address. Applications arriving after March 5,
  396. 1993 may not be considered. All approved applicants will be informed of the
  397. exact registration arrangements. Informal email inquiries can be addressed to
  398. Dr. Cherkassky at   nato_asi@ee.umn.edu
  399.  
  400.  
  401.  
  402.  
  403. ------------------------------
  404.  
  405. Subject: VLSI NN
  406. From:    Gasser Auda <gasser@cs.uregina.ca>
  407. Date:    Sat, 06 Feb 93 13:30:14 -0600
  408.  
  409. [[ Editor's Note: I'm starting to reject these vague general calls for
  410. help, due to the increased volume of submissions to the Digest.  However,
  411. I don't want to shut out the rank beginners from this exciting field
  412. either. So, I hope faithful readers will take pity on those who are just
  413. starting out with some pointers. -PM ]]
  414.  
  415.         Dear neural networkers,
  416.                 I'm performing a survey on NN solutions of the handwriting
  417.                 problems, especialy VLSI implemented solutions.
  418.                 If you have any advise, information, paper, or commercial
  419.                 product, just email me at:
  420.  
  421.                         gasser@cs.uregina.ca
  422.         THANKS IN ADVANCE.
  423. gasser
  424.  
  425.  
  426. ------------------------------
  427.  
  428. Subject: Re: "neural-net based software for digitization of maps"
  429. From:    eytan@dpt-info.u-strasbg.fr (Michel Eytan, LILoL)
  430. Date:    Sun, 07 Feb 93 11:24:26 +0100
  431.  
  432. >A colleague from India is asking me if there is any effort on "neural
  433. >network based software for the digitization of maps and photos (maps and
  434. >photos presumably obtained from remotely-sensed data)" Is there any one
  435. >who can help answer this question? Thanks
  436. >
  437. >Rao Vemuri
  438. >Dept. of Applied Science
  439. >UC Davis, Livermore, CA
  440. >vemuri@icdc.llnl.gov
  441.  
  442. My colleague J. Korczak <korczak@dpt-info.u-strasbg.fr> has a student, Ms.
  443. Hamadi, doing a Ph. D. on a similar subject. Hope this helps.
  444.  
  445. Michel Eytan,  U. Strasbourg II                 eytan@dpt-info.u-strasbg.fr
  446. Lab Info, Log & Lang, Dpt. Info                 V: +33 88 41 74 29
  447. 22 rue Descartes, 67084 Strasbourg              F: +33 88 41 74 40
  448.  
  449.  
  450.  
  451. ------------------------------
  452.  
  453. Subject: Applications for particle track segment detection??
  454. From:    "Martin J. Dudziak" <DUDZIAK@vms.cis.pitt.edu>
  455. Date:    Sun, 07 Feb 93 14:09:00 -0500
  456.  
  457.  
  458. I am involved in a joint collaboration involving U-Pitt and the Institute
  459. of Nuclear Physics, Novosibirsk (Russia) wherein we are studying the
  460. possible useful applications of neural networks for particle track
  461. segment detection and track reconstruction.  The process is now handled
  462. by some effective and well-established algorithms developed at CERN,
  463. Novosibirsk and elsewhere, but we believe that neural nets may have
  464. applicability for both improved detection (picking up on track segments
  465. registered in the drift chamber portion of the detector) and performance,
  466. particularly as the data rates in the detection process will be quite
  467. high (@40-100MBytes/sec.) in the next generation accelerator and we are
  468. working with a parallel processing architecture already to meet that
  469. computing requirement.
  470.  
  471. We are aware of some work in the high energy physics community involving
  472. neural networks, most of which is more concerned with classification of
  473. particle interactions - the step that follows after one has identified
  474. tracks of interest.  Much of that work has also not involved the
  475. low-level end of the detection process such as we are concerned about,
  476. nor has it involved the density of tracks.
  477.  
  478. I thought it would be useful to inquire through the neural network
  479. community in grapevines such as Neuron-Digest to see if people are aware
  480. of projects applying neural nets to problems such as the above.  Any
  481. information on NNs in HEP and for track detection/reconstruction in
  482. particular will be greatly appreciated.
  483.  
  484. Whatever is sent will be compiled into a bibliography and redistributed
  485. to those who are interested.
  486.  
  487. Martin Dudziak
  488. c/o J. Thompson, School of Physics, Univ. of Pittsburgh
  489. dudziak@vms.cis.pitt.edu
  490.  
  491. Thank you!
  492.  
  493.  
  494. ------------------------------
  495.  
  496. Subject: Pattern Recognition
  497. From:    VOGLINOG@AGR04.ST.IT
  498. Date:    Mon, 08 Feb 93 11:47:55 +0700
  499.  
  500. [[ Editor's Note: Again, a rather general and vague request.  Perhaps
  501. someone from Italy on this mailing list could help out a fellow
  502. countryperson? -PM ]]
  503.  
  504.    Hello.
  505.  
  506.    Where to get some software on pattern recognition based on neural
  507.    network ?
  508.  
  509. Thank you.
  510.  
  511. GIuseppe Voglino
  512. SGS-Thomson Microelectronics Neural Network Group R&D
  513. Agrate B. _ MILAN - ITALY
  514.  
  515.  
  516.  
  517.  
  518. ------------------------------
  519.  
  520. Subject: Re: chip design
  521. From:    blam@Engn.Uwindsor.Ca (B Lam)
  522. Date:    Mon, 08 Feb 93 13:06:16 -0500
  523.  
  524. [[ Editor's Note: This plucky person rephrased his question from "Tell me
  525. about neural nets" to the follow (somewhat more specific) question...
  526. after I rejected his first attempt. My public reply to the specifics of
  527. his questio would be to look at Carver Mead's book (MIT Press?) "Analog
  528. VLSI" to start, but I don't know whether it covers fuzzy stuff. -PM ]]
  529.  
  530. I'm looking the analog VLSI design for the Neural Network.  I'm thinking
  531. to combine Fuzzy into NN.  Is there any paper that talk about this topic?
  532. I'd look the journal of IEEE Tran. on NN but it seems to talk about the
  533. theory or software only.  So please help me with this one. Thanks!
  534.  
  535.  
  536. ------------------------------
  537.  
  538. Subject: neural net applications to fixed-income security markets
  539. From:    danlap@internet.sbi.com (Dan LaPushin)
  540. Date:    Mon, 08 Feb 93 18:26:43 -0500
  541.  
  542.  
  543.  
  544. To The Editor,
  545.  
  546. I am new to the field of neural networks but have a strong background
  547. in mathematics, economics, and some computer programming.  I work at
  548. a large Wall St. firm and am interested in applying neural network
  549. technology to the field of fixed-income research.  Such instruments
  550. include bonds, mortgage-backed securities and the like.  There seems
  551. to be, as far as I can tell, little research into neural net
  552. application to such markets.  I suspect this is because the data is
  553. hard to come by for those not in the field, but I'm not sure.  Could
  554. you direct me to any research in this area so that I don't
  555. inadvertently recreate the wheel?  Thanks for your help!
  556.  
  557.  
  558.                                 Dan LaPushin
  559.  
  560. I'm on your mailing list as danlap@sp_server.sbi.com
  561.  
  562.  
  563.  
  564. ------------------------------
  565.  
  566. Subject: Room sharing for ICNN
  567. From:    nanda@ogicse.cse.ogi.edu (Nandakishore Kambhatla)
  568. Organization: Oregon Graduate Institute (formerly OGC), Beaverton, OR
  569. Date:    10 Feb 93 18:02:30 +0000
  570.  
  571.  
  572. Hi,
  573.  
  574. I am a male graduate student attending ICNN'93 at SF.  I am looking for
  575. roommates (1) to share a hotel room with at San Fransisco for ICNN'93.
  576. The conference runs from Mar 29th to April 1st.  Please respond thru
  577. email in case you are interested.
  578.  
  579. - -Nanda
  580.  
  581. Nandakishore Kambhatla
  582. email: nanda@cse.ogi.edu
  583. phone: daytime-(503)-690-1121 (Extn-7051)
  584.        evenings-(503)-646-5777
  585.  
  586. ------------------------------
  587.  
  588. Subject: pattern recognition (pratical database considerations) ?
  589. From:    "Duane A. White" <KFRAMXX%TAIVM2.BITNET@TAIVM1.taiu.edu>
  590. Date:    Sat, 13 Feb 93 03:45:41 -0600
  591.  
  592. I am interested in pattern recognition.  In my particular application I
  593. would like to compare a 2D monochrome bitmap image with those in a
  594. database.  The program should determine if there is a match, and if not
  595. then add it to the database.  Most of the literature I've read on pattern
  596. matching networks use a relatively small set of classification patterns
  597. (such as letters of the alphabet, numbers).  In my case it wouldn't seem
  598. practical to train a single network to identify every entry in the
  599. database (on the order of hundreds or thousands of entries).  Is there
  600. something fundemental in the approach that I'm missing?
  601.  
  602. Also the program should to a small degree be rotation and translation
  603. invariant.
  604.  
  605.  
  606. ------------------------------
  607.  
  608. End of Neuron Digest [Volume 11 Issue 12]
  609. *****************************************
  610. Received: from BUACCA by BUACCA.BU.EDU (Mailer R2.08 PTF009) with BSMTP id
  611.  6666; Tue, 23 Feb 93 12:54:11 EST
  612. Received: from noc2.dccs.upenn.edu by BUACCA.BU.EDU (IBM VM SMTP R1.2.1) with
  613.  TCP; Tue, 23 Feb 93 12:54:08 EST
  614. Received: from CATTELL.PSYCH.UPENN.EDU by noc2.dccs.upenn.edu
  615.     id AA03416; Tue, 23 Feb 93 12:44:05 -0500
  616. Return-Path: <marvit@cattell.psych.upenn.edu>
  617. Received: from LOCALHOST by cattell.psych.upenn.edu
  618.     id AA04331; Tue, 23 Feb 93 10:57:09 EST
  619. Posted-Date: Tue, 23 Feb 93 10:56:33 EST
  620. From: "Neuron-Digest Moderator" <neuron-request@cattell.psych.upenn.edu>
  621. To: Neuron-Distribution:;
  622. Subject: Neuron Digest V11 #13 (discussion)
  623. Reply-To: "Neuron-Request" <neuron-request@cattell.psych.upenn.edu>
  624. X-Errors-To: "Neuron-Request" <neuron-request@cattell.psych.upenn.edu>
  625. Organization: University of Pennsylvania
  626. Date: Tue, 23 Feb 93 10:56:33 EST
  627. Message-Id: <4321.730482993@cattell.psych.upenn.edu>
  628. Sender: marvit@cattell.psych.upenn.edu
  629.  
  630. Neuron Digest   Tuesday, 23 Feb 1993
  631.                 Volume 11 : Issue 13
  632.  
  633. Today's Topics:
  634.    Biologically Plausible Dynamic Artificial Neural Networks Reviewed
  635.  
  636. Send submissions, questions, address maintenance, and requests for old
  637. issues to "neuron-request@cattell.psych.upenn.edu". The ftp archives are
  638. available from cattell.psych.upenn.edu (130.91.68.31). Back issues
  639. requested by mail will eventually be sent, but may take a while.
  640.  
  641. ----------------------------------------------------------------------
  642.  
  643. Subject: Biologically Plausible Dynamic Artificial Neural Networks Reviewed
  644. From:    Paul Fawcett <paulf@manor.demon.co.uk>
  645. Date:    Sat, 06 Feb 93 18:57:41 +0000
  646.  
  647.    Thank  you  for  publishing  in Neuron Digest Vol. 11, Issue 6 my original
  648.    posting on the  subject  of  'Biologically  Plausible  Dynamic  Artificial
  649.    Networks'.
  650.  
  651.    As a follow-up to this post I circulated a summary of replies to those who
  652.    contacted me directly by email. Each contributor agreed to their  comments
  653.    being  quoted  in this way. Please feel free to use this material, in full
  654.    or in part, for any future edition of the Neuron Digest.
  655.  
  656.    The summary follows:
  657.  
  658.                                               Last update: 20 JAN 93
  659.  
  660.    DISTRIBUTION:
  661.    Ulf Andrick       <andrick@rhrk.uni-kl.de>
  662.    Mark J. Crosbie   <mcrosbie@unix1.tcd.ie>
  663.    S. E. Fahlman     <sef@sef-pmax.slisp.cs.cmu.edu>
  664.    Bernie French     <btf64@cas.org>
  665.    John R. Mcdonnell <mcdonn%bach.nosc.mil@nosc.mil>
  666.    Larry D. Pyeatt   <pyeatt@texaco.com>
  667.    Bill Saidel       <saidel@clam.rutgers.edu>
  668.    Mark W. Tilden    <mwtilden@math.uwaterloo.ca>
  669.    Jari Vaario       <jari@ai.rcast.u-tokyo.ac.jp>
  670.    Paul Verschure    <verschur@ifi.unizh.ch>
  671.    Stanley Zietz     <szietz@king.mcs.drexel.edu>
  672.  
  673.    THIS BULLETIN SUMMARIZES THE MAJORITY OF E-MAIL REPLIES TO THE FOLLOWING
  674.    USENET ARTICLE:
  675.  
  676.    All contributors have agreed to publication of their comments.
  677.  
  678.    From: paulf@manor.demon.co.uk (Paul Fawcett)
  679.  
  680.    Newsgroups: comp.ai,
  681.    comp.ai.neural-nets,
  682.    sci.cognitive,
  683.    comp.theory.cell-automata,
  684.    bionet.neuroscience,
  685.    bionet.molbio.evolution,
  686.    bionet.software
  687.  
  688.  
  689.    Subject: Biologically Plausible Dynamic Artificial Neural Networks
  690.    Date: Tue, 05 Jan 93 05:53:57 GMT
  691.  
  692.  
  693.           Biologically  Plausible  Dynamic Artificial Neural Networks.
  694.           ------------------------------------------------------------
  695.  
  696.           A   *Dynamic   Artificial   Neural   Network*   (DANN)   [1]
  697.           [my  acronym]  possesses   processing  elements   that   are
  698.           created  and/or  annihilated,  either  in  real time  or  as
  699.           some part  of  a development phase [2].
  700.  
  701.           Of    particular    interest    is    the   possibility   of
  702.           constructing   *biologically    plausible*    DANN's    that
  703.           models    developmental   neurobiological   strategies   for
  704.           establishing  and   modifying processing elements and  their
  705.           connections.
  706.  
  707.           Work  with  cellular  automata in modeling cell genesis  and
  708.           cell pattern  formation  could  be applicable to the  design
  709.           of  DANN topologies.  Likewise, biological features that are
  710.           determined by genetic  or  evolutionary  factors  [3]  would
  711.           also have a  role  to play.
  712.  
  713.           Putting  all  this  together  with  a view to constructing a
  714.           working DANN,  possessing cognitive/behavioral attributes of
  715.           a biological system is a tall order; the modeling of nervous
  716.           systems in simple organisms may be the  best  approach  when
  717.           dealing with a problem of such complexity [4].
  718.  
  719.           Any  comments,  opinions  or  references  in respect of  the
  720.           above assertions would be most welcome.
  721.  
  722.  
  723.           References.
  724.  
  725.           1. Ross, M. D., et al  (1990);  Toward  Modeling  a  Dynamic
  726.              Biological   Neural   Network,  Mathl  Comput.  Modeling,
  727.              Vol 13 No.7, pp97-105.
  728.  
  729.           2. Lee, Tsu-Chang,(1991);  Structure  Level  Adaptation  for
  730.              Artificial  Neural  Networks, Kluwer Academic Publishers.
  731.  
  732.           3. Edleman,  Gerald,(1987);  Neural Darwinism the Theory of
  733.              Neural Group Selection, Basic Books.
  734.  
  735.           4. Beer, Randal, D,(1990); Intelligence as Adaptive Behavior
  736.              :  An   Experiment   in    Computational   Neuroethology.
  737.              Academic  Press.
  738.  
  739.  
  740.                                OVERVIEW
  741.  
  742.    The  cross-posting  strategy was successful in bringing about replies from
  743.    contributors working in the computer and life sciences.
  744.  
  745.    Of those with a computer science background Jari  Vaario  is  constructing
  746.    (and publishing) DANN's inspired by biological systems and an evolutionary
  747.    metaphor, John Mcdonnell also  reports  he  has  been  able  to  construct
  748.    evolving  networks and Larry Pyeatt has had some success at modeling these
  749.    processes. Mark Crossbie is interested in combining cellular automata  and
  750.    genetic  algorithms  to  build  simple  machines.  Mark  Tilden  offers  a
  751.    robotics viewpoint and suggests there may be some 'simple'  and  'elegant'
  752.    solutions.  Paul  Verschure offers some references to his own work in this
  753.    field.
  754.  
  755.    Life science  replies came from Bernie French who suggested  the  nematode
  756.    as  a  suitable  organism as model for a DANN. Stanley Zietz has suggested
  757.    modeling simple structures rather than organisms, and draws  attention  to
  758.    the  work  at  NASA-Ames  where  they are attempting to make 'real' neural
  759.    networks. To counter this Bill Saidel points out the  distinction  between
  760.    the  type  of  neuron being studied in NASA-Ames research and those in the
  761.    cortex.
  762.  
  763.    Thanks to Ulf Andrick and Scott Fahlman for their replies on the Usenet.
  764.  
  765.    I hope  this  discussion  will  initiate  further  debate  and  those  who
  766.    participated will take the opportunity to make some informal contacts with
  767.    the other contributors.
  768.  
  769.    Many thanks
  770.    Paul.
  771.  
  772.    c/o AI Division
  773.    School of Computer Science
  774.    University of Westminster
  775.    115 New Cavendish Street
  776.    London W1M 8JS
  777.    UK.
  778.  
  779.    -------------------------------------------------------------
  780.  
  781.  
  782.                                 READING
  783.  
  784.    The Wolpert and Brown references are suitable for those who do not have  a
  785.    strong  background  in  biology. I would describe Langton's two Artificial
  786.    Life volumes as essential reading. Artificial  Life  II  contains  several
  787.    papers  exploring  evolving  artificial neural networks. Beer's book is so
  788.    new I have not been able to look at a copy yet.
  789.  
  790.  
  791.    Title: Biological neural networks in invertebrate neuroethology and
  792.    robotics / edited by Randall D. Beer, Roy E. Ritzmann, Thomas McKenna.
  793.  
  794.    Publication Info: Boston : Academic Press, c1993. Phys. Description: xi,
  795.    417 p. : ill. ; 24 cm. Series Name: Neural networks, foundations to
  796.    applications
  797.  
  798.    Subjects: Neural circuitry. Subjects: Invertebrates--Physiology. Subjects:
  799.    Neural networks (Computer science)
  800.  
  801.    ISBN: 0-12-084728-0
  802.  
  803.  
  804.    Author: Wolpert, L. (Lewis)
  805.  
  806.    Title: The triumph of the embryo / Lewis Wolpert ; with illustrations
  807.    drawn by Debra Skinner.
  808.  
  809.    Publication Info: Oxford [England] ; New York : Oxford University Press,
  810.    1991.
  811.  
  812.    Phys. Description: vii, 211 p. : ill. ; 25 cm.
  813.  
  814.    Subjects: Embryology, Human--Popular works.
  815.  
  816.    ISBN: 0-19-854243-7 : $22.95
  817.  
  818.  
  819.  
  820.    Author: Brown, M. C. (Michael Charles)
  821.  
  822.    Title: Essentials of neural development / M.C. Brown, W.G. Hopkins, and
  823.    R.J. Keynes.
  824.  
  825.    Publication Info: Cambridge ; New York : Cambridge University Press,
  826.    c1991. Phys. Description: x, 176 p. : ill. ; 24 cm.
  827.  
  828.    Notes: Rev. ed. of: Development of nerve cells and their connections / by
  829.    W.G. Hopkins and M.C. Brown. 1984.
  830.  
  831.    Subjects: Developmental neurology. Subjects: Nerves. Subjects: Neurons.
  832.    Subjects: Nerve endings. Subjects: Neurons.
  833.  
  834.    ISBN: 0-521-37556-8
  835.    ISBN: 0-521-37698-X (pbk.)
  836.  
  837.  
  838.    Title: Artificial life II : the proceedings of an interdisciplinary
  839.    workshop on the synthesis and simulation of living systems held 1990 in
  840.    Los Alamos, New Mexico / edited by Christopher G. Langton ... [et al.].
  841.  
  842.    Publication Info: Redwood City, Calif. : Addison-Wesley, 1991. Series
  843.    Name: Santa Fe Institute studies in the sciences of complexity proceedings
  844.    ; v. 10
  845.  
  846.    Notes: Proceedings of the Second Artificial Life Workshop.
  847.  
  848.    Subjects: Biological systems--Computer simulation--Congresses. Subjects:
  849.    Biological systems--Simulation methods--Congresses.
  850.  
  851.    ISBN: 0-201-52570-4
  852.    ISBN: 0-201-52571-2 (pbk.)
  853.  
  854.  
  855.    Author: Interdisciplinary Workshop on the Synthesis and Simulation of
  856.    Living Systems (1987 : (Los Alamos, N.M.)
  857.  
  858.    Title: Artificial life : the proceedings of an Interdisciplinary Workshop
  859.    on the Synthesis and Simulation of Living Systems, held September, 1987,
  860.    in Los Alamos, New Mexico / Christopher G. Langton, editor.
  861.  
  862.    Publication Info: Redwood City, Calif. : Addison-Wesley Pub. Co., Advanced
  863.    Book Program, c1989. Phys. Description: xxix, 655 p., [10] p. of plates :
  864.    ill. (some col.) ; 25 cm.
  865.  
  866.    Series Name: Santa Fe Institute studies in the sciences of complexity ; v.
  867.    6
  868.  
  869.    ISBN: 0-201-09346-4
  870.    ISBN: 0-201-09356-1 (pbk.)
  871.  
  872.  
  873.  
  874.  
  875.     ----------------------------------------------------------------------
  876.  
  877.  
  878.    From: Jari Vaario   <jari@ai.rcast.u-tokyo.ac.jp>
  879.  
  880.    I have been  working  already  awhile  to  create  a  method  to  describe
  881.    dynamical neural networks as you describe above. The latest journal papers
  882.    of mine are
  883.  
  884.    Jari Vaario and Setsuo Ohsuga: An Emergent Construction of Adaptive Neural
  885.    Architectures,  Heuristics - The Journal of Knowledge Engineering, vol. 5,
  886.    No 2, 1992.
  887.  
  888.    Abstract:
  889.           In this paper a modeling method for an emergent construction
  890.           of  neural  network architectures is proposed. The structure
  891.           and behavior of neural networks are  an  emergent  of  small
  892.           construction  and  behavior  rules, that in cooperation with
  893.           extrinsic signals, define the gradual growth of  the  neural
  894.           network  structure  and  its adaptation capability (learning
  895.           behavior). The inspiration for the work  is  taken  directly
  896.           from  biological  systems, even though the simulation itself
  897.           is not an exact biological simulation. The example  used  to
  898.           demonstrate  the  modeling  method  is  also from biological
  899.           context: the sea hare Aplysia (a mollusk).
  900.  
  901.    Jari Vaario, Koichi Hori and Setsuo Ohsuga: Toward Evolutionary Design  of
  902.    Autonomous  Systems,  The  International Journal in Computer Simulation, A
  903.    Special Issue on High Autonomous Systems, to be appear 1993.
  904.  
  905.    Abstract:
  906.           An evolutionary method for designing autonomous  systems  is
  907.           proposed.  The research is a computer exploration on how the
  908.           global behavior of autonomous systems can emerge from neural
  909.           circuits.  The evolutionary approach is used to increase the
  910.           repertoire of behaviors.
  911.  
  912.           Autonomous  systems  are   viewed   as   organisms   in   an
  913.           environment.  Each  organism  has  its own set of production
  914.           rules, a genetic  code,  that  gives  birth  to  the  neural
  915.           structure.  Another  set  of  production  rules describe the
  916.           environmental factors. These production rules together  give
  917.           rise to a neural network embedded in the organism model. The
  918.           neural network is the only  means  to  direct  reproduction.
  919.           This  gives  rise  to  intelligence,  organisms  which  have
  920.           ``more''  intelligent  methods  to  reproduce  will  have  a
  921.           relative advantage for survival.
  922.  
  923.  
  924.    Jari Vaario
  925.    Research Center for Advanced Science and Technology
  926.    University of Tokyo, Japan
  927.  
  928.  
  929.  
  930.  
  931.    JARI HAS OFFERED TO PROVIDE COPIES OF HIS PAPERS TO READERS OF
  932.    THIS BULLETIN. PLEASE CONTACT HIM BY EMAIL FOR FURTHER DETAILS.
  933.  
  934.  
  935.     ---------------------------------------------------------------------
  936.  
  937.  
  938.    From: "John R. Mcdonnell" <mcdonn%bach.nosc.mil@nosc.mil>
  939.  
  940.    I  have  been  developing networks which "evolve" structure as well as the
  941.    connection strengths.  This is  done  using  an  evolutionary  programming
  942.    paradigm  as  a mechanism for stochastic search.  One thing I have noticed
  943.    is that particular structures tend to dominate the  population  (EP  is  a
  944.    multi-agent stochastic search technique).  THis has caused me to backtrack
  945.    a little and investigate the search space for  simultaneously  determining
  946.    model structure and parameters.
  947.  
  948.    Nevertheless,  I  have  been  able  to "evolve" networks for simple binary
  949.    mappings such as XOR, 3-bit parity, and the T-C problem.  In the future  I
  950.    am  aiming at more general (feedforward) networks which do not have layers
  951.    per se, but neuron  class  {input,  hidden,  output}.  Self-organizing  of
  952.    sub-groups  of  neurons would be an interesting phenomenon to observe for,
  953.    say, image recognition  problems.  I  think  that  to  accomplish  this  a
  954.    distance metric between neurons might be necessary.
  955.  
  956.    Fahlman's  cascade-correlation architecture is very interesting.  However,
  957.    it has the constraint that the neurons be fully  connected  to  subsequent
  958.    neurons in the network.  This might not be detrimental in that unimportant
  959.    connections  could  have  very  small   weights.   From   an   information
  960.    standpoint,  these  free parameters should be included in a cost function.
  961.    I do like his approach in adding additional hidden nodes.
  962.  
  963.    As one last comment, when I "evolve" (I use the term loosely) networks for
  964.    the  XOR  mapping  with  an  additional input of U(0,1) noise,  this third
  965.    (noisy) input node has all of its outputs disconnected.  This was  a  nice
  966.    result since inputs which contain no information can be disconnected.
  967.  
  968.  
  969.    John McDonnell
  970.    NCCOSC, RDT&E Division
  971.    Code 731
  972.    Information & Signal Processing Dept.
  973.    San Diego, CA   92152-5000
  974.    <mcdonn@bach.nosc.mil>
  975.  
  976.  
  977.    -----------------------------------------------------------------------
  978.  
  979.  
  980.    From: "Larry D. Pyeatt" <pyeatt@texaco.com>
  981.  
  982.  
  983.    I  have  just completed some code to allow modelling of DANN's.  It allows
  984.    PE's to be created, destroyed, and reconnected at any time........
  985.  
  986.    I have been using genetic algorithms to construct  networks  with  desired
  987.    properties.  Encoding the genes is a major problem.......
  988.  
  989.    I  have  been  thinking  that  it would be interesting to try to evolve or
  990.    create a simple "creature" which lives in a computer simulated world.  The
  991.    "creature"  would  have  a small set of inputs and responses with which to
  992.    interact with  the  simulated  world.  Once  the  "creature"  has  evolved
  993.    sufficiently,  you  could  make its world richer and give it more neurons.
  994.    Eventually, you might have a respectably complex organism.
  995.  
  996.  
  997.  
  998.  
  999.    Larry D. Pyeatt                 The views expressed here are not
  1000.    Internet : pyeatt@texaco.com    those of my employer or of anyone
  1001.    Voice    : (713) 975-4056       that I know of with the possible
  1002.                                    exception of myself.
  1003.  
  1004.  
  1005.    -----------------------------------------------------------------------
  1006.  
  1007.  
  1008.    From: Bernie French <btf64@cas.org>
  1009.  
  1010.    I noticed your Usenet post on the use of simple organisms as  a  model  to
  1011.    produce  a  biologically  plausible DANN.  One organism that would seem to
  1012.    fit your need  for  producing  a  DANN  is  the  nematode,  Caenorhabditis
  1013.    elegans.  The  positions  of  neuronal  processes  as well as the neuronal
  1014.    connectivity  has  been  extensively  mapped   in   this   organism.   The
  1015.    development  in  terms  of  cellular  fates  is  also well studied for the
  1016.    nervous system.  Integration of  neuronal  subsystems  into  the  neuronal
  1017.    processes  during  development  have  been  studied.  This  would fit your
  1018.    description of a DANN where processing elements are created as part  of  a
  1019.    development  phase.  Further,  the  two  sexes  of  C.  elegans  (male and
  1020.    hermaphrodite) have different numbers of total neurons as adults, 302  for
  1021.    the  hermaphrodite.  Howver,  during development of the neuronal processes
  1022.    there is no difference between the two sexes.  During a certain  stage  in
  1023.    development   there  is  the  production  of  sex-specific  neurons.  This
  1024.    sex-specificity occurs by a process of programmed  cell  death,  in  which
  1025.    certain  neurons are "programmed" to die.  This fits your description of a
  1026.    DANN where processing elements are annihilated as part  of  a  development
  1027.    phase.
  1028.  
  1029.    This  organism also provides some spatial information, since some neuronal
  1030.    cells undergo migration within the organism.  Disruption of this migration
  1031.    results  in  synaptic  differences  in  the  neuronal  connectivity,  with
  1032.    corresponding differences in the organism response to external stimuli.
  1033.  
  1034.    A good starting reference, if your interested in looking at this  organism
  1035.    as  a model, is "The Nematode Caenorhabditis Elegans".  The book is edited
  1036.    by William B. Wood and published by Cold Spring Harbor Laboratory.
  1037.  
  1038.        -- Bernie (btf64@cas.org)
  1039.  
  1040.   -------------------------------------------------------------------------
  1041.  
  1042.  
  1043.    From: "Mark J. Crosbie" <mcrosbie@unix1.tcd.ie>
  1044.  
  1045.  
  1046.    As part of a project which I am working on for my degree,  I  am  studying
  1047.    how to evolve machines for solving simple problems.
  1048.  
  1049.    I  saw  that  Cellular  Automata were able to evolve colonies of cells and
  1050.    control how these cells lived or died, but I felt  that  this  was  not  a
  1051.    powerful  enough representation of cells to be of use. I have combined the
  1052.    CA approach with a Genetic Algorithm approach within each CA  to  give  me
  1053.    colonies of evolving cells which can modify their behaviour over time.
  1054.  
  1055.    Each  cell  can  be  pre-programmed to perform a certain task (an adder or
  1056.    multiplexor say) and the first hurdle in  the  project  is  getting  these
  1057.    cells  to  grow  together and interconnect properly. I think that study of
  1058.    how  cells  grow  and  interconnect  will  lead  to  not  only  a   better
  1059.    understanding  of the nervous systems of living organisms, but also of how
  1060.    to solve problems using these "Genetic Programming" techniques.
  1061.  
  1062.    I feel that this idea overlaps somewhat with your DANN which you described
  1063.    in  comp.theory.cell-automata. Do you agree? Would you agree that building
  1064.    simple machines by genetic means would be  a  better  starting  point  for
  1065.    experimentation  than  trying  to simulate a complex nervous system? Given
  1066.    enough of these cells and a complex enough interconnection system, do  you
  1067.    feel  that  a  system  will  evolve  which  will equal a nervous system in
  1068.    functionality and intelligence?
  1069.  
  1070.  
  1071.  
  1072.    Mark Crosbie
  1073.    mcrosbie@vax1.tcd.ie
  1074.    Dept. of Computer Science
  1075.    Trinity College, Dublin
  1076.    Dublin 2
  1077.    Eire.
  1078.  
  1079.  
  1080.      --------------------------------------------------------------------
  1081.  
  1082.  
  1083.    From: "Mark W. Tilden" <mwtilden@math.uwaterloo.ca>
  1084.  
  1085.    Forcing a DANN, as you call it, through simple topological structures with
  1086.    recursive sub-elements does tend towards complexity befitting a functional
  1087.    organism with surprisingly few components.  In my lab I have a variety  of
  1088.    robotic devices with adaptive nervous systems not exceeding the equivalent
  1089.    of 10 neurons.  These devices not only learn to walk from first principles
  1090.    but  can  also  adapt  to  many  different  circumstances including severe
  1091.    personal damage.  There are no processors involved; my most complex device
  1092.    uses only 50 transistors for its entire spectrum of behavior, response and
  1093.    control.
  1094.  
  1095.    My point is that there are simple, elegant solutions  to  "constructing  a
  1096.    working DANN".  More so than you might expect.
  1097.  
  1098.    I'm  sorry  I have no papers to quote as I am awaiting patents, but I will
  1099.    be at the Brussels Alife show in May with some of my devices, or  you  can
  1100.    check  out  an  article  on  me  in  the  September 92 issue of Scientific
  1101.    American.
  1102.  
  1103.  
  1104.  
  1105.    Mark W. Tilden
  1106.    M.F.C.F Hardware Design Lab.
  1107.    U of Waterloo. Ont. Can, N2L-3G1
  1108.    (519)885-1211 ext. 2454
  1109.  
  1110.  
  1111.    -----------------------------------------------------------------------
  1112.  
  1113.  
  1114.    From: Stanley Zietz <szietz@king.mcs.drexel.edu>
  1115.  
  1116.  
  1117.    05 Jan 93
  1118.    You may not need to model simple organisms, but simple  structures.  Since
  1119.    you  quote  Muriel Ross's paper, you probably know that the Biocomputation
  1120.    Center at NASA-Ames is exhaustively studying the linear  accelerometer  in
  1121.    the  inner  ear  as a prototypical system to make 'real' biological neural
  1122.    networks.
  1123.  
  1124.    07 Jan 93
  1125.    To paraphrase many of the papers, it has been shown that the  geometry  of
  1126.    the  connection  of  the  hair cells (before the Spike initiation zone) is
  1127.    critical to the summation  of  events,  and  indeed  there  is  a  lot  of
  1128.    variability  (perhaps  throwing in a stochastic element into the network).
  1129.    Also, as Muriel reported at headquarters, the  results  of  analyzing  the
  1130.    space  flight  animals  have  shown  that  the  number of synapses is very
  1131.    plastic in microgravity - the number of synapses increase  in  space  (and
  1132.    decrease  if  you  put  the  animals  in  hypergravity  on  a centrifuge).
  1133.    Therefore the synapses (and presumably the electrical  conduction  in  the
  1134.    network)  is responding to the input.  Such self adaption is probably very
  1135.    important  in  biological  communications  systems  (Steve  Grossberg  has
  1136.    expounded  such  a concept in 1979). We already know that such environment
  1137.    driven events are important in development.
  1138.  
  1139.  
  1140.  
  1141.    Dr. Stanley Zietz                               email szietz@mcs.drexel.edu
  1142.    Assoc. Director - Biomed. Eng. and Sci. Inst.        tel (215) - 895-2681
  1143.    Assoc. Prof. -  Mathematics and Computer Sciences    Fax (215) - 895-4983
  1144.    Drexel University - 32nd and Chestnut Sts.    Phila., PA 19104  USA
  1145.    also
  1146.    Biocomputation Center
  1147.    NASA-Ames Research Center
  1148.  
  1149.  
  1150.   --------------------------------------------------------------------------
  1151.  
  1152.  
  1153.    From: Bill Saidel  <saidel@clam.rutgers.edu>
  1154.  
  1155.  
  1156.    The  question that remains [see ref. 1 in my post, also the  Zietz  reply]
  1157.    is   whether   a   hard   wired   (where   hard   is   a  relative   term,
  1158.    relative  to  say  cortex  in  the  cns)  set  of   connections   from   a
  1159.    peripheral   sensory   receptor  to  the  peripheral  afferent  fiber  and
  1160.    then  to  the  brain  comprises   a   "net"   in   the   same   sense   as
  1161.    neural  net  is  used.  An  analogous  example  would  be  from  cones  to
  1162.    bipolar  (and  NOT  to  ganglion  cell).  My  omission  of  ganglion  cell
  1163.    is  simply  that  ganglion  cell in  the  serial  ordering  of  processing
  1164.    would  be  equivalent  to  the  first  order  vestibular  neuron  in   the
  1165.    vestibular  nuclei  of  the  hindbrain.  This series of  connections seems
  1166.    to   qualify   as   a   genetically-determined   (and   I   am    probably
  1167.    overconstraining    the    use   of   determined)   set   of   connections
  1168.    (receptor  to  next  layer).  I  know  of  no  learning   treatment   that
  1169.    changes   this   layer   of   connections.   However,   manipulating   the
  1170.    sensory  input   in  the   retina  by  strobing   does   produce   strange
  1171.    deficits  in  frog  and  cat velocity detection (and other features).
  1172.  
  1173.    The Ross argument has depended on looking at the EM level of  connections.
  1174.    These connections  are  all  at  the  level  of  the sensory periphery and
  1175.    so they are under  normal  circumstances,   not   manipulable.   Nets   in
  1176.    the  cortex   are manipulable as are nnets in computer simulations.
  1177.  
  1178.    However,   Ross   has   also  been  involved  in   an   intriguing   study
  1179.    of  the  structure  of synaptic connections in rats or mice that were born
  1180.    in  space  (I  think)   and  found  that  the  synaptic  connections   are
  1181.    fewer  when  gravity is missing or diminished.
  1182.  
  1183.    I  prefer  to  think  of  that  manipulation of the nervous periphery more
  1184.    as an example of experimental epistomology because the change occurred due
  1185.    to  changes  inthe  biophysical  structure  of experience. Again,  let  me
  1186.    point  out  that   at   the   periphery   the   neuronal   processing   is
  1187.    driven   by  biophysics.  In  the  cns,  neuronal  processing is driven by
  1188.    preceeding  nerve  cells  that  know  nothing  about  the  outside  world.
  1189.    Perhaps,  this  distinction is  the  one that I use to distinguish between
  1190.    nets and  constructions  (a possibly  artificial  distinction  but  to  my
  1191.    mind, useful one).
  1192.  
  1193.  
  1194.    Bill Saidel
  1195.    Dept. of Biology
  1196.    (609) 225-6336 (phone)Rutgers University
  1197.    Camden, NJ 08102
  1198.    saidel@clam.rutgers.edu (email)
  1199.  
  1200.  
  1201.  ----------------------------------------------------------------------------
  1202.  
  1203.  
  1204.    EDITED REPRINT OF NEWSPOST WITH ADDITIONAL REFERENCE
  1205.  
  1206.  
  1207.    From: Scott E. Fahlman      <sef@sef-pmax.slisp.cs.cmu.edu>
  1208.  
  1209.    I  would  just  point  out  that  adding  or  subtracting neurons from the
  1210.    functional net does not necessarily correspond to adding,  destroying,  or
  1211.    moving any physical neurons.  If a physical neuron (or functional group of
  1212.    neurons) has a  lot  of  excess  connections,  invisible  changes  in  the
  1213.    synapses  can  effectively  wire  it  into  the  net  in a large number of
  1214.    different ways, or effectively remove it.
  1215.  
  1216.    Something like my dynamic  (additive)  Cascade-Correlation  model  can  be
  1217.    implemented by a sort of phase change, rather than a re-wiring of the net:
  1218.    A candidate unit has a lot of trainable inputs, but it produces no  output
  1219.    (or  all  the  potential  recipients  ignore its output).  After a unit is
  1220.    tenured, a specific pattern of input weights is frozen  in,  but  now  the
  1221.    neuron  does  produce  effective  outputs.  I  don't  know if such a phase
  1222.    transition has  been  observed  in  biological  neurons  --  it  would  be
  1223.    interesting  to  find  out.  Note  that  what  I'm  calling a "unit" might
  1224.    correspond to a group of biological neurons rather than a single one.
  1225.  
  1226.  
  1227.  
  1228.    Scott E. Fahlman                        Internet:  sef+@cs.cmu.edu
  1229.    Senior Research Scientist               Phone:     412 268-2575
  1230.    School of Computer Science              Fax:       412 681-5739
  1231.    Carnegie Mellon University              Latitude:  40:26:33 N
  1232.    5000 Forbes Avenue                      Longitude: 79:56:48 W
  1233.    Pittsburgh, PA 15213
  1234.  
  1235.  
  1236.  
  1237.  
  1238.    REFERENCE
  1239.  
  1240.  
  1241.           LEARNING WITH LIMITED NUMERICAL PRECISION USING THE
  1242.           CASCADE-CORRELATION ALGORITHM
  1243.           HOEHFELD M, FAHLMAN SE
  1244.           IEEE TRANSACTIONS ON NEURAL NETWORKS 1992 VOL.3 NO.4 PP.602-611
  1245.  
  1246.  
  1247.    ------------------------------------------------------------------------
  1248.  
  1249.  
  1250.    From: Paul Verschure <verschur@ifi.unizh.ch>
  1251.  
  1252.  
  1253.  
  1254.    The work we're doing would fit pretty well in your approach. Let  me  give
  1255.    you some references:
  1256.  
  1257.    Verschure,  P.F.M.J.,  Krose,  B,  Pfeifer,  R.(1992) Distributed Adaptive
  1258.    Control:  The  self-organization  of  structured  behavior.  Robotics  and
  1259.    Autonomous  Systems,  9,  181-196.  (Control  architectures for Autonomous
  1260.    agents based on self-organizing model for classical conditioning).
  1261.  
  1262.    Verschure, P.F.M.J., & Coolen,  T.  (1991)  Adaptive  Fields:  Distributed
  1263.    representations   of  clasically  conditioned  associations.  Network,  2,
  1264.    189-206. (Two neural models for reinforcement learning which do  NOT  rely
  1265.    on  supervised  learning  and  local  representations and incorporate some
  1266.    general properties of neural functioning, the models  are  analyzed  using
  1267.    techniques from statistical physics and not with simulations)
  1268.  
  1269.    Verschure,  P.F.M.J.  (1992)  Taking  connectionism  seriously:  The vague
  1270.    promis of subsymbolism and an alternative. In Proc. 14th Ann. Conf. of the
  1271.    Cog. Sci. Soc., 653-658, Hillsdale, N.J.: Erlbaum.
  1272.  
  1273.  
  1274.    Paul Verschure              AI lab      Department of Computer Science
  1275.    University Zurich-Irchel                      Tel + 41 - 1 - 257 43 06
  1276.    Winterthurerstrasse 190                       Fax + 41 - 1 - 363 00 35
  1277.    CH - 8057 Zurich, Switzerland                    verschur@ifi.unizh.ch
  1278.  
  1279.  
  1280.       ------------------------------------------------------------------
  1281.  
  1282.  
  1283.    For  after  all  what is man in nature? A nothing in relation to infinity,
  1284.    all in relation to nothing, a central point between nothing and  all,  and
  1285.    infinitely  far  from  understanding  either. The ends of things and their
  1286.    beginnings are impregnably concealed from him in an  impenetrable  secret.
  1287.    He  is  equally  incapable  of  seeing the nothingness out of which he was
  1288.    drawn and the infinite in which he is engulfed.
  1289.  
  1290.                                         Blaise Pascal (1623-1662)
  1291.  
  1292.  
  1293.  
  1294.  --------------------------------------------------------------------------
  1295.  Paul Fawcett                  |     Internet: paulf@manor.demon.co.uk
  1296.  London, UK.                   |               tenec@westminster.ac.uk
  1297.  --------------------------------------------------------------------------
  1298.  
  1299.  
  1300. ------------------------------
  1301.  
  1302. End of Neuron Digest [Volume 11 Issue 13]
  1303. *****************************************
  1304. Received: from BUACCA by BUACCA.BU.EDU (Mailer R2.08 PTF009) with BSMTP id
  1305.  5442; Mon, 01 Mar 93 18:50:17 EST
  1306. Received: from noc2.dccs.upenn.edu by BUACCA.BU.EDU (IBM VM SMTP R1.2.1) with
  1307.  TCP; Mon, 01 Mar 93 18:50:13 EST
  1308. Received: from CATTELL.PSYCH.UPENN.EDU by noc2.dccs.upenn.edu
  1309.     id AA01999; Mon, 1 Mar 93 18:43:34 -0500
  1310. Return-Path: <marvit@cattell.psych.upenn.edu>
  1311. Received: from LOCALHOST by cattell.psych.upenn.edu
  1312.     id AA01365; Fri, 26 Feb 93 02:39:52 EST
  1313. Posted-Date: Fri, 26 Feb 93 02:39:14 EST
  1314. From: "Neuron-Digest Moderator" <neuron-request@cattell.psych.upenn.edu>
  1315. To: Neuron-Distribution:;
  1316. Subject: Neuron Digest V11 #14 (discussion + jobs)
  1317. Reply-To: "Neuron-Request" <neuron-request@cattell.psych.upenn.edu>
  1318. X-Errors-To: "Neuron-Request" <neuron-request@cattell.psych.upenn.edu>
  1319. Organization: University of Pennsylvania
  1320. Date: Fri, 26 Feb 93 02:39:14 EST
  1321. Message-Id: <1359.730712354@cattell.psych.upenn.edu>
  1322. Sender: marvit@cattell.psych.upenn.edu
  1323.  
  1324. Neuron Digest   Friday, 26 Feb 1993
  1325.                 Volume 11 : Issue 14
  1326.  
  1327. Today's Topics:
  1328.         neural net applications to fixed-income security markets
  1329.     connectionist models summer school -- final call for applications
  1330.          RE: Neuron Digest V11 #8 (discussion + reviews + jobs)
  1331.                 Re: Speaker normalization and adaptation
  1332.              A computationally efficient squashing function
  1333.                           BP network paralysis
  1334.       Re: pattern recognition (pratical database considerations) ?
  1335.        Re: pattern recognition (pratical database considerations)
  1336.                   Computational Biology Degree Programs
  1337.                    postdoctoral traineeships available
  1338.      Postdoc position in computational/biological vision (learning)
  1339.        Position for Programmer/Analyst with Neural Networks (YALE)
  1340.  
  1341.  
  1342. Send submissions, questions, address maintenance, and requests for old
  1343. issues to "neuron-request@cattell.psych.upenn.edu". The ftp archives are
  1344. available from cattell.psych.upenn.edu (130.91.68.31). Back issues
  1345. requested by mail will eventually be sent, but may take a while.
  1346.  
  1347. ----------------------------------------------------------------------
  1348.  
  1349. Subject: neural net applications to fixed-income security markets
  1350. From:    danlap@internet.sbi.com (Dan LaPushin)
  1351. Date:    Mon, 08 Feb 93 18:26:43 -0500
  1352.  
  1353. [[ Editor's Note: Once again, neural nets has reached Wall Street, but
  1354. this time from quite a different angle.  A cursory search in past issues
  1355. of the Digest turned up nothing of relevance.  Perhaps one of our
  1356. faithful readers might either lend a helpful ear or might get interested
  1357. in this as a new project via email! -PM ]]
  1358.  
  1359. To The Editor,
  1360.  
  1361. I am new to the field of neural networks but have a strong background in
  1362. mathematics, economics, and some computer programming.  I work at a large
  1363. Wall St. firm and am interested in applying neural network technology to
  1364. the field of fixed-income research.  Such instruments include bonds,
  1365. mortgage-backed securities and the like.  There seems to be, as far as I
  1366. can tell, little research into neural net application to such markets.  I
  1367. suspect this is because the data is hard to come by for those not in the
  1368. field, but I'm not sure.  Could you direct me to any research in this
  1369. area so that I don't inadvertently recreate the wheel?  Thanks for your
  1370. help!
  1371.  
  1372.                                 Dan LaPushin
  1373.  
  1374. I'm on your mailing list as danlap@sp_server.sbi.com
  1375.  
  1376.  
  1377.  
  1378. ------------------------------
  1379.  
  1380. Subject: connectionist models summer school -- final call for applications
  1381. From:    "Michael C. Mozer" <mozer@dendrite.cs.colorado.edu>
  1382. Date:    Thu, 11 Feb 93 22:10:05 -0700
  1383.  
  1384.                         FINAL CALL FOR APPLICATIONS
  1385.  
  1386.                     CONNECTIONIST MODELS SUMMER SCHOOL
  1387.  
  1388.      The University of  Colorado  will  host  the  1993  Connectionist
  1389.      Models  Summer  School from June 21 to July 3, 1993.  The purpose
  1390.      of the summer school is to provide training  to  promising  young
  1391.      researchers  in connectionism (neural networks) by leaders of the
  1392.      field and to foster interdisciplinary collaboration.   This  will
  1393.      be  the  fourth  such  program  in  a  series  that  was  held at
  1394.      Carnegie-Mellon in 1986 and 1988 and at UC  San  Diego  in  1990.
  1395.      Previous  summer  schools  have  been extremely successful and we
  1396.      look forward to the 1993 session  with  anticipation  of  another
  1397.      exciting event.
  1398.  
  1399.      The  summer  school  will  offer  courses  in   many   areas   of
  1400.      connectionist modeling, with emphasis on artificial intelligence,
  1401.      cognitive neuroscience, cognitive science, computational methods,
  1402.      and  theoretical  foundations.   Visiting  faculty  (see  list of
  1403.      invited faculty below) will present daily lectures and tutorials,
  1404.      coordinate  informal workshops, and lead small discussion groups.
  1405.      The summer school schedule is designed to allow  for  significant
  1406.      interaction  among  students and faculty. As in previous years, a
  1407.      proceedings of the summer school will be published.
  1408.  
  1409.      Applications will  be  considered  only  from  graduate  students
  1410.      currently  enrolled in Ph.D. programs.  About 50 students will be
  1411.      accepted.  Admission is on a competitive basis.  Tuition will  be
  1412.      covered  for  all  students,  and  we expect to have scholarships
  1413.      available to subsidize housing and meal costs, but  students  are
  1414.      responsible for their own travel arrangements.
  1415.  
  1416.      Applications should include the following materials:
  1417.  
  1418.      *  a vita, including mailing address,  phone  number,  electronic
  1419.      mail  address,  academic  history, list of publications (if any),
  1420.      and relevant courses taken with  instructors'  names  and  grades
  1421.      received;
  1422.  
  1423.      *  a one-page statement of purpose,  explaining  major  areas  of
  1424.      interest  and  prior  background  in  connectionist  modeling and
  1425.      neural networks;
  1426.  
  1427.      *  two letters of recommendation from individuals  familiar  with
  1428.      the  applicants'  work  (either  mailed  separately  or in sealed
  1429.      envelopes); and
  1430.  
  1431.      *  a statement from the applicant describing potential sources of
  1432.      financial  support  available  (department,  advisor,  etc.)  for
  1433.      travel expenses.
  1434.  
  1435.      Applications should be sent to:
  1436.  
  1437.              Connectionist Models Summer School
  1438.              c/o Institute of Cognitive Science
  1439.              Campus Box 344
  1440.              University of Colorado
  1441.              Boulder, CO 80309
  1442.  
  1443.      All application materials must be  received  by  March  1,  1993.
  1444.      Admission  decisions  will  be announced around April 15.  If you
  1445.      have specific questions, please write to  the  address  above  or
  1446.      send  e-mail  to  "cmss@cs.colorado.edu".   Application materials
  1447.      cannot be accepted via e-mail.
  1448.  
  1449.  
  1450.      Organizing Committee
  1451.  
  1452.      Jeff Elman (UC San Diego)
  1453.      Mike Mozer (University of Colorado)
  1454.      Paul Smolensky (University of Colorado)
  1455.      Dave Touretzky (Carnegie Mellon)
  1456.      Andreas Weigend (Xerox PARC and University of Colorado)
  1457.  
  1458.      Additional faculty will include:
  1459.  
  1460.      Yaser Abu-Mostafa (Cal Tech)
  1461.      Sue Becker (McMaster University)
  1462.      Andy Barto (University of Massachusetts, Amherst)
  1463.      Jack Cowan (University of Chicago)
  1464.      Peter Dayan (Salk Institute)
  1465.      Mary Hare (Birkbeck College)
  1466.      Cathy Harris (Boston University)
  1467.      David Haussler (UC Santa Cruz)
  1468.      Geoff Hinton (University of Toronto)
  1469.      Mike Jordan (MIT)
  1470.      John Kruschke (Indiana University)
  1471.      Jay McClelland (Carnegie Mellon)
  1472.      Ennio Mingolla (Boston University)
  1473.      Steve Nowlan (Salk Institute)
  1474.      Dave Plaut (Carnegie Mellon)
  1475.      Jordan Pollack (Ohio State)
  1476.      Dean Pomerleau (Carnegie Mellon)
  1477.      Dave Rumelhart (Stanford)
  1478.      Patrice Simard (ATT Bell Labs)
  1479.      Terry Sejnowski (UC San Diego and Salk Institute)
  1480.      Sara Solla (ATT Bell Labs)
  1481.      Janet Wiles (University of Queensland)
  1482.  
  1483.      The Summer School is sponsored by the  American  Association  for
  1484.      Artificial Intelligence, the National Science Foundation, Siemens
  1485.      Research Center, and the  University  of  Colorado  Institute  of
  1486.      Cognitive Science.
  1487.  
  1488.      Colorado has recently passed a law explicitly denying  protection
  1489.      for  lesbians,  gays,  and bisexuals.  However, the Summer School
  1490.      does not discriminate in admissions on the  basis  of  age,  sex,
  1491.      race,  national  origin, religion, disability, veteran status, or
  1492.      sexual orientation.
  1493.  
  1494.  
  1495. ------------------------------
  1496.  
  1497. Subject: RE: Neuron Digest V11 #8 (discussion + reviews + jobs)
  1498. From:    rkeller@academic.cc.colorado.edu
  1499. Date:    Sun, 14 Feb 93 12:18:03 -0700
  1500.  
  1501. James L. McClelland and David E. Rumelhart provide code for a Boltzmann
  1502. Machine in "Explorations in Parallel Distributed Processing: A Handbook
  1503. of Models, Programs and Exercises"  The code is written for a PC.  This
  1504. is A Bradford Book available from The MIT Press and was designed to
  1505. provide excersises to accompany their two volume book "Parallel
  1506. Distributed Processing."
  1507.  
  1508.  
  1509. ------------------------------
  1510.  
  1511. Subject: Re: Speaker normalization and adaptation
  1512. From:    Yaakov Stein <stein@galaxy.huji.ac.il>
  1513. Date:    Wed, 17 Feb 93 07:51:07 +0200
  1514.  
  1515. Nico Weymaere (WEYMAERE@lem.rug.ac.be) asked for references on speaker
  1516. normalization and adaptation. While the idea of exploiting the self
  1517. organization and learning capabilities of neural networks for this task
  1518. seems quite natural, I have not seen much in the proceedings of NN
  1519. conferences. The related questions of speaker independent recognition and
  1520. speaker identification / verification have been far more thoroughly
  1521. treated in this literature. In the speech and signal processing
  1522. conferences more has appeared. A quick search through my article file
  1523. turned up the following :
  1524.  
  1525.  
  1526.  
  1527. Bridle JS and Cox SJ, RecNorm: Simultaneous Normalization and
  1528. Classification Applied to Speech Recognition, NIPS-3, 234-40 (1991)
  1529.  
  1530. Cox SJ and Bridle JS, Simultaneous Speaker Normalization and Utterance
  1531. Labelling Using Bayesian/Neural Net Techniques,
  1532. ICASSP-90 article S3.8, vol 1, 161-4 (1990)
  1533.  
  1534. Hampshire JB II and Waibel AH, The Meta-Pi Network: Connectionist Rapid
  1535. Adaptation for High Performace Multi-Speaker Phoneme Recognition,
  1536. ICASSP-90 article S3.9, vol 1, 165-8 (1990)
  1537.  
  1538. Fukuzawa K and Komori Y, A Segment-based Speaker Adaptation Neural Network
  1539. Applied to Continuous Speech Recognition, ICASSP-92, I 433-6 (1992)
  1540.  
  1541. Huang X, Speaker Normalization for Speech Recognition, ICASSP-92,
  1542. I 465-8 (1992)
  1543.  
  1544. Iso K, Asogawa M, Yoshida K and Watanabe T, Speaker Adaptation Using
  1545. Neural Network, Proc. Spring Meeting of Acoust. Soc. of Japan,
  1546. I 6-16 (March 1989) [in Japanese, quoted widely but I don't have it]
  1547.  
  1548. Konig Y and Morgan N, GDNN: A Gender-Dependent Neural Network for
  1549. Continuous Speech Recognition, IJCNN-92(Baltimore), II 332-7 (1992)
  1550.  
  1551. Montacie C, Choukri K and Chollet G, Speech Recognition using Temporal
  1552. Decomposition and Multilayer Feedforward Automata,
  1553. ICASSP-89 article S8.6, vol 1, 409-12 (1989)
  1554.  
  1555. Nakamura S and Akabane T, A Neural Speaker Model for Speaker Clustering,
  1556. ICASSP-91 article S13.6, vol 2, 853-856 (1991)
  1557.  
  1558. Nakamura S and Shikano K, Speaker Adaptation Applied to HMM and
  1559. Neural Networks, ICASSP-89 article S3.3, vol 1, 89-92 (1989)
  1560.  
  1561. Nakamura S and Shikano K, A Comparative Study of Spectral Mapping for
  1562. Speaker Adaptation, ICASSP-90 article S3.7, vol 1, 157-160 (1990)
  1563.  
  1564. Schmidbauer O and Tebelskis J, An LVQ Based Reference Model for Speaker
  1565. Adaptative Speech Recognition, ICASSP-92, I 441-4 (1992)
  1566.  
  1567. Witbrock M and Hoffman P, Rapid Connectionist Speaker Adaptation,
  1568. ICASSP-92, pp. I 453-6 (1992)
  1569.  
  1570. Hope this helps.
  1571.  
  1572. Yaakov Stein
  1573.  
  1574.  
  1575.  
  1576. ------------------------------
  1577.  
  1578. Subject: A computationally efficient squashing function
  1579. From:    "Michael P. Perrone" <mpp@cns.brown.edu>
  1580. Date:    Thu, 18 Feb 93 15:42:34 -0500
  1581.  
  1582. Recently on the comp.ai.neural-nets bboard, there has been a discussion
  1583. of more computationally efficient squashing functions.  Some colleagues
  1584. of mine suggested that many members of this mailing list may not have
  1585. access to the comp.ai.neural-nets bboard; so I have included a summary
  1586. below.
  1587.  
  1588. Michael
  1589.  
  1590. - ------------------------------------------------------
  1591. David L. Elliot mentioned using the following neuron activation function:
  1592.  
  1593.                                       x
  1594.                             f(x) = -------
  1595.                                    1 + |x|
  1596.  
  1597. He argues that this function has the same qualitative properties of the
  1598. hyperbolic tangent function but in practice faster to calculate.
  1599.  
  1600. I have suggested a similar speed-up for radial basis function networks:
  1601.  
  1602.                                       1
  1603.                             f(x) = -------
  1604.                                    1 + x^2
  1605.  
  1606. which avoids the transcendental calculation associated with gaussian RBF
  1607. nets.
  1608.  
  1609. I have run simulations using the above squashing function in various
  1610. backprop networks.  The performance is comparable (sometimes worse
  1611. sometimes better) to usual training using hyperbolic tangents.  I also
  1612. found that the performance of networks varied very little when the
  1613. activation functions were switched (i.e. two networks with identical
  1614. weights but different activation functions will have comparable performance
  1615. on the same data).  I tested these results on two databases: the NIST OCR
  1616. database (preprocessed by Nestor Inc.) and the Turk and Pentland human face
  1617. database.
  1618.  
  1619. -
  1620. ------------------------------------------------------------------------------
  1621. --
  1622. Michael P. Perrone                                      Email:
  1623. mpp@cns.brown.edu
  1624. Institute for Brain and Neural Systems                  Tel:   401-863-3920
  1625. Brown University                                        Fax:   401-863-3934
  1626. Providence, RI 02912
  1627.  
  1628.  
  1629. ------------------------------
  1630.  
  1631. Subject: BP network paralysis
  1632. From:    slablee@mines.u-nancy.fr
  1633. Date:    Fri, 19 Feb 93 13:55:35 +0700
  1634.  
  1635.  
  1636. Dear Netters,
  1637.  
  1638. My english is a bit frenchy (!) so please excuse some poor
  1639. sentences !
  1640.  
  1641. I'm trying to use NN to detect the start of a sampled signal.
  1642.  
  1643. I'm using a 7520 x 150 x 70 x 1 BackPropagation network.
  1644. My problem is :  whatever could be the parameters
  1645. I choose (learning rate, momentum...) the Network
  1646. stop learning with a rather high error (about 0.4 for each
  1647. unit, into a [0,1] range ! ).
  1648.  
  1649. I thought of two problems :
  1650.       - network "paralysis" (as describe by Rumelhart) involved
  1651. by too high weight (which leads to activations near 0 or 1,
  1652. preventing the weights from being changed : the changes are
  1653. proportional to a(1-a) ). But the weights of my network always
  1654. have average values...
  1655.       - some local minima. But a great value for the learning rate seems
  1656. to change nothing to it. I've tried to add a noise in the input units,
  1657. whithout any success. I've also tried to change the number of hidden units,
  1658. but the local minima are always here, even if lower.
  1659.  
  1660.        Who could help me to escape from this problem ?
  1661.  
  1662.       --------------------------------------------------
  1663.       |                Stephane Lablee                 |
  1664.       |                      *****                     |
  1665.       |           Ecole des Mines de Nancy             |
  1666.       |                Parc de Saurupt                 |
  1667.       |               54042 Nancy Cedex                |
  1668.       |                     France                     |
  1669.       |                      *****                     |
  1670.       |    E-mail :  slablee@mines.u-nancy.fr          |
  1671.       --------------------------------------------------
  1672.  
  1673. - --
  1674.  
  1675.  
  1676. ------------------------------
  1677.  
  1678. Subject: Re: pattern recognition (pratical database considerations) ?
  1679. From:    gray@itd.nrl.navy.mil (Jim Gray)
  1680. Date:    Fri, 19 Feb 93 09:33:19 -0500
  1681.  
  1682. Duane A. White writes:
  1683.  
  1684. > I am interested in pattern recognition.  In my particular application I
  1685. > would like to compare a 2D monochrome bitmap image with those in a
  1686. > database.  The program should determine if there is a match, and if not
  1687. > then add it to the database.  Most of the literature I've read on pattern
  1688. > matching networks use a relatively small set of classification patterns
  1689. > (such as letters of the alphabet, numbers).  In my case it wouldn't seem
  1690. > practical to train a single network to identify every entry in the
  1691. > database (on the order of hundreds or thousands of entries).  Is there
  1692. > something fundemental in the approach that I'm missing?
  1693.  
  1694. You might try looking at Adaptive Resonance Theory (ART).
  1695. A good place to start is the book:
  1696.  
  1697.   Carpenter and Grossberg, eds., Pattern Recognition by Self-Organizing
  1698.   Neural Networks, The MIT Press, Cambridge, MA (1991)
  1699.   ISBN 0-262-03176-0
  1700.  
  1701. I'm not sure whether ART networks can be applied to "thousands of entries"
  1702. in practice, but the basic operation is as you describe: the network
  1703. determines if there is a match, and if not, then adds it to the database.
  1704.  
  1705. > Also the program should to a small degree be rotation and translation
  1706. > invariant.
  1707.  
  1708. I'm not sure whether ART networks have been applied to this type of
  1709. problem, but you might try looking at:
  1710.  
  1711.   Hinton, "A Parallel Computation that assigns Canonical Object-Based
  1712.   Frames of Reference", in Proceedings of the International Joint
  1713.   Conference on Artificial Intelligence, 1981, pp. 683-685.
  1714.  
  1715. Jim Gray.
  1716.  
  1717.  
  1718.  
  1719. ------------------------------
  1720.  
  1721. Subject: Re: pattern recognition (pratical database considerations)
  1722. From:    shsbishp@reading.ac.uk
  1723. Date:    Tue, 23 Feb 93 11:26:45 +0000
  1724.  
  1725.  
  1726. >I am interested in pattern recognition.  In my particular application I
  1727. >would like to compare a 2D monochrome bitmap image with those in a
  1728. >database.  The program should determine if there is a match, and if not
  1729. >then add it to the database.  Most of the literature I've read on pattern
  1730. >matching networks use a relatively small set of classification patterns
  1731. >(such as letters of the alphabet, numbers).  In my case it wouldn't seem
  1732. >practical to train a single network to identify every entry in the
  1733. >database (on the order of hundreds or thousands of entries).  Is there
  1734. >something fundemental in the approach that I'm missing?
  1735. >
  1736. >Also the program should to a small degree be rotation and translation
  1737. >invariant.
  1738.  
  1739.  
  1740. Having just perused todays neural digest (Vol.11; No. 12), I noticed the
  1741. above plea for help. Having been unable to email the sender direct, I enclose
  1742. the following information for the list.
  1743.  
  1744. As part of my doctoral research I developed a neural architecture (The
  1745. Stochastic Search Network) for use on this type of problem - Anarchic
  1746. Techniques for Pattern Classification, PhD thesis 1989, University of
  1747. Reading, UK. A recent reference on this work is; Bishop, J.M. & Torr, P.,
  1748. in Lingard, R., Myers, D.J. & Nightingale, C. (eds), Neural Networks for
  1749. Vision, Speech & Natural Language, Chapman Hall, pp: 370-388.
  1750.  
  1751. For further information please email to (shsbishp@uk.ac.rdg) or write to
  1752. Dr. J.M.Bishop, Department of Cybernetics, University of Reading,
  1753. Berkshire, UK.
  1754.  
  1755.  
  1756. ------------------------------
  1757.  
  1758. Subject: Computational Biology Degree Programs
  1759. From:    georgep@rice.edu (George Phillips)
  1760. Organization: Rice University
  1761. Date:    05 Feb 93 15:38:31 +0000
  1762.  
  1763. The W.M. Keck Center for Computational Biology offers studies in
  1764. Computational Biology through three partner institutions: Rice
  1765. University, Baylor College of Medicine, and the University of Houston.
  1766.  
  1767. Science and engineering are in the process of being transformed by the
  1768. power of new computing technologies.  Our goal is to train a new kind of
  1769. scientist--one poised to seize the advantages of a national computational
  1770. prowess in solving important problems in biology.
  1771.  
  1772. The program emphasizes algorithm development, computation, and
  1773. visualization in biology, biochemistry and biophysics.  The Program draws
  1774. on the intellectual and technologic resources of The Center for Research
  1775. on Parallel Computation at Rice, the Human Genome Center at Baylor
  1776. College of Medicine, and the Institute for Molecular Design at the
  1777. University of Houston, among others.
  1778.  
  1779. The research groups involved in the W.M. Keck Center for Computational
  1780. Biology are at the forefronts of their respective areas, and their
  1781. laboratories are outstanding settings for the program.
  1782.  
  1783. A list of participating faculty and application information can be
  1784. obtained by sending email to georgep@rice.edu.
  1785.  
  1786. ======================================+=======================================
  1787. Prof. George N. Phillips, Jr., Ph.D.  |    InterNet:  georgep@rice.edu
  1788. Dept. of Biochemistry and Cell Biology|
  1789. Rice University, P.O. Box 1892        |    Phone:     (713) 527-4910
  1790. Houston, Texas 77251                  |    Fax:       (713) 285-5154
  1791.  
  1792. ------------------------------
  1793.  
  1794. Subject: postdoctoral traineeships available
  1795. From:    "John K. Kruschke" <KRUSCHKE@ucs.indiana.edu>
  1796. Date:    Tue, 09 Feb 93 09:45:45 -0500
  1797.  
  1798.  
  1799. POST-DOCTORAL FELLOWSHIPS AT INDIANA UNIVERSITY
  1800.  
  1801.    Postdoctoral Traineeships in MODELING OF COGNITIVE PROCESSES
  1802.  
  1803.    Please call this notice to the attention of all interested parties.
  1804.  
  1805.    The Psychology Department and Cognitive Science Programs at Indiana
  1806. University are pleased to announce the availability of one or more
  1807. Postdoctoral Traineeships in the area of Modeling of Cognitive
  1808. Processes. The appointment will pay rates appropriate for a new PhD
  1809. (about $18,800), and will be for one year, starting after July 1,
  1810. 1993. The duration could be extended to two years if a training grant
  1811. from NIH is funded as anticipated (we should receive final
  1812. notification by May 1).
  1813.  
  1814.    Post-docs are offered to qualified individuals who wish to further
  1815. their training in mathematical modeling or computer simulation
  1816. modeling, in any substantive area of cognitive psychology or Cognitive
  1817. Science.
  1818.  
  1819.    We are particularly interested in applicants with strong
  1820. mathematical, scientific, and research credentials. Indiana University
  1821. has superb computational and research facilities, and faculty with
  1822. outstanding credentials in this area of research, including Richard
  1823. Shiffrin and James Townsend, co-directors of the training program, and
  1824. Robert Nosofsky, Donald Robinson, John Castellan, John Kruschke,
  1825. Robert Goldstone, Geoffrey Bingham, and Robert Port.
  1826.  
  1827.    Trainees will be expected to carry out original theoretical and
  1828. empirical research in association with one or more of these faculty
  1829. and their laboratories, and to interact with other relevant faculty
  1830. and the other pre- and postdoctoral trainees.
  1831.  
  1832.    Interested applicants should send an up to date vitae, personal
  1833. letter describing their specific research interests, relevant
  1834. background, goals, and career plans, and reference letters from two
  1835. individuals. Relevant reprints and preprints should also be sent.
  1836. Women, minority group members, and handicapped individuals are urged
  1837. to apply. PLEASE NOTE: The conditions of our anticipated grant
  1838. restrict awards to US citizens, or current green card holders. Awards
  1839. will also have a 'payback' provision, generally requiring awardees to
  1840. carry out research or teach for an equivalent period after termination
  1841. of the traineeship. Send all materials to:
  1842.  
  1843.    Professors Richard Shiffrin and James Townsend,
  1844.      Program Directors
  1845.    Department of Psychology, Room 376B
  1846.    Indiana University
  1847.    Bloomington, IN 47405
  1848.  
  1849.    We may be contacted at:
  1850.    812-855-2722;
  1851.    Fax: 812-855-4691
  1852.    email: shiffrin@ucs.indiana.edu
  1853.  
  1854. Indiana University is an Affirmative Action Employer
  1855.  
  1856.  
  1857.  
  1858. ------------------------------
  1859.  
  1860. Subject: Postdoc position in computational/biological vision (learning)
  1861. From:    "John G. Harris" <harris@ai.mit.edu>
  1862. Date:    Tue, 16 Feb 93 18:50:28 -0500
  1863.  
  1864. One (or possibly two) postdoctoral positions are available for one or two
  1865. years in computational vision starting September 1993 (flexible).  The
  1866. postdoc will work in Lucia Vaina's laboratory at Boston University,
  1867. College of Engineering, to conduct research in learning the direction in
  1868. global motion.  The researchers currently involved in this project are
  1869. Lucia M.  Vaina, John Harris, Charlie Chubb, Bob Sekuler, and Federico
  1870. Girosi.
  1871.  
  1872. Requirements are PhD in CS or related area with experience in visual
  1873. modeling or psychophysics.  Knowledge of biologically relevant neural
  1874. models is desirable.  Stipend ranges from $28,000 to $35,000 depending
  1875. upon qualifications.  Deadline for application is March 1, 1993.  Two
  1876. letter of recommendation, description of current research and an up to
  1877. date CV are required.
  1878.  
  1879. In the research we combine computational psychophysics, neural networks
  1880. modeling and analog VLSI to study visual learning specifically applied to
  1881. direction in global motion. The global motion problem requires estimation
  1882. of the direction and magnitude of coherent motion in the presence of
  1883. noise.  We are proposing a set of psychophysical experiments in which the
  1884. subject, or the network must integrate noisy, spatially local motion
  1885. information from across the visual field in order to generate a response.
  1886. We will study the classes of neural networks which best approximate the
  1887. pattern of learning demonstrated in psychophysical tasks. We will explore
  1888. Hebbian learning, multilayer perceptrons (e.g. backpropagation),
  1889. cooperative networks, Radial Basis Function and Hyper-Basis Functions.
  1890. The various strategies and their implementation will be evaluated on the
  1891. basis of their performance and their biological plausibility.
  1892.  
  1893. For more details, contact Prof. Lucia M. Vaina at vaina@buenga.bu.edu or
  1894. lmv@ai.mit.edu.
  1895.  
  1896.  
  1897.  
  1898. ------------------------------
  1899.  
  1900. Subject: Position for Programmer/Analyst with Neural Networks (YALE)
  1901. From:    Anand Rangarajan <rangarajan-anand@CS.YALE.EDU>
  1902. Date:    Thu, 18 Feb 93 13:18:40 -0500
  1903.  
  1904.                         Programmer/Analyst Position
  1905.                         in Artificial Neural Networks
  1906.  
  1907.                         The Yale Center for Theoretical
  1908.                         and Applied Neuroscience (CTAN)
  1909.                                  and the
  1910.                         Department of Computer Science
  1911.                         Yale University, New Haven, CT
  1912.  
  1913. We are offering a challenging position in software engineering in support of
  1914. new techniques in image processing and computer vision using artificial neural
  1915. networks (ANNs).
  1916.  
  1917. 1. Basic Function:
  1918. Designer and programmer for computer vision and neural network
  1919. software at CTAN and the Computer Science department.
  1920.  
  1921. 2. Major duties:
  1922. (a) To implement computer vision algorithms using a Khoros (or similar)
  1923. type of environment.
  1924.  
  1925. (b) Use the aforementioned tools and environment to run and analyze
  1926. computer experiments in specific image processing and vision application
  1927. areas.
  1928.  
  1929. (c) To facilitate the improvement of neural network algorithms and
  1930. architectures for vision and image processing.
  1931.  
  1932. 3. Position Specifications:
  1933. (a) Education:
  1934.         BA, including linear algebra, differential equations, calculus.
  1935.         helpful: mathematical optimization.
  1936.  
  1937. (b) Experience:
  1938.         programming experience in C++ (or C) under UNIX.
  1939.         some of the following: neural networks, vision or image processing
  1940.         applications, scientific computing, workstation graphics,
  1941.         image processing environments, parallel computing, computer algebra
  1942.         and object-oriented design.
  1943.  
  1944. Preferred starting date: March 1, 1993.
  1945.  
  1946. For information or to submit an application, please write:
  1947.  
  1948. Eric Mjolsness
  1949. Department of Computer Science
  1950. Yale University
  1951. P. O. Box 2158 Yale Station
  1952. New Haven, CT 06520-2158
  1953. e-mail: mjolsness-eric@cs.yale.edu
  1954.  
  1955. Any application must also be submitted to:
  1956.  
  1957. Jeffrey Drexler
  1958. Department of Human Resources
  1959. Yale University
  1960. 155 Whitney Ave.
  1961. New Haven, CT 06520
  1962.  
  1963. - -Eric Mjolsness and Anand Rangarajan
  1964.  (prospective supervisors)
  1965.  
  1966.  
  1967.  
  1968.  
  1969.  
  1970.  
  1971.  
  1972.  
  1973.  
  1974. ------------------------------
  1975.  
  1976. End of Neuron Digest [Volume 11 Issue 14]
  1977. *****************************************
  1978. Received: from BUACCA by BUACCA.BU.EDU (Mailer R2.08 PTF009) with BSMTP id
  1979.  5802; Sat, 27 Feb 93 18:47:54 EST
  1980. Received: from noc2.dccs.upenn.edu by BUACCA.BU.EDU (IBM VM SMTP R1.2.1) with
  1981.  TCP; Sat, 27 Feb 93 18:47:51 EST
  1982. Received: from CATTELL.PSYCH.UPENN.EDU by noc2.dccs.upenn.edu
  1983.     id AA04341; Sat, 27 Feb 93 18:42:56 -0500
  1984. Return-Path: <marvit@cattell.psych.upenn.edu>
  1985. Received: from LOCALHOST by cattell.psych.upenn.edu
  1986.     id AA09209; Sat, 27 Feb 93 17:09:40 EST
  1987. Posted-Date: Sat, 27 Feb 93 17:09:10 EST
  1988. From: "Neuron-Digest Moderator" <neuron-request@cattell.psych.upenn.edu>
  1989. To: Neuron-Distribution:;
  1990. Subject: Neuron Digest V11 #15 (discussion, software, & jobs)
  1991. Reply-To: "Neuron-Request" <neuron-request@cattell.psych.upenn.edu>
  1992. X-Errors-To: "Neuron-Request" <neuron-request@cattell.psych.upenn.edu>
  1993. Organization: University of Pennsylvania
  1994. Date: Sat, 27 Feb 93 17:09:10 EST
  1995. Message-Id: <9204.730850950@cattell.psych.upenn.edu>
  1996. Sender: marvit@cattell.psych.upenn.edu
  1997.  
  1998. Neuron Digest   Saturday, 27 Feb 1993
  1999.                 Volume 11 : Issue 15
  2000.  
  2001. Today's Topics:
  2002.                   Applying Standards to Neural Networks
  2003.                        Sheet of neurons simulation
  2004.                      Re: Sheet of neurons simulation
  2005.                      Re: Sheet of neurons simulation
  2006.                            NNET model choice.
  2007.                       Handbook of Neural Algorithms
  2008.                 COMPUTER STANDARDS & INTERFACES addendum
  2009.                         Position Available at JPL
  2010.                                lectureship
  2011.   Industrial Position in Artificial Intelligence and/or Neural Networks
  2012.                     lectureship in cognitive science
  2013.                         Microsoft Speech Research
  2014.         Neural Computation & Cognition: Opening for NN Programmer
  2015.  
  2016.  
  2017. Send submissions, questions, address maintenance, and requests for old
  2018. issues to "neuron-request@cattell.psych.upenn.edu". The ftp archives are
  2019. available from cattell.psych.upenn.edu (130.91.68.31). Back issues
  2020. requested by mail will eventually be sent, but may take a while.
  2021.  
  2022. ----------------------------------------------------------------------
  2023.  
  2024. Subject: Applying Standards to Neural Networks
  2025. From:    erwin@trwacs.fp.trw.com (Harry Erwin)
  2026. Organization: TRW Systems Division, Fairfax VA
  2027. Date:    12 Feb 93 16:54:57 +0000
  2028.  
  2029.  
  2030. I was asked to review a proposal concerning the standardization of
  2031. vocabulary for machine learning and neural networks. This is being
  2032. distributed by the U.S. Technical Advisory Group to ANSI (JTC1 TAG). X3K5
  2033. is coordinating and developing a recommended position to JTC1 TAG for
  2034. approval for submission to ISO/IEC JTC 1. This recommendation has to be
  2035. returned to the JTC1 TAG Administrator no later than 1 March, 1993. The
  2036. contact person is the
  2037.  
  2038.   JTC1 TAG Administrator
  2039.   Computer and Business Equipment Manufacturers Association (CBEMA)
  2040.   1250 Eys Street NW, Suite 200
  2041.   Washington, DC 20005-3922
  2042.   phone: 202-737-8888 (Press 1 Twice)
  2043.  
  2044. The vocabulary whose definitions are being standardized include:
  2045.  
  2046.  "knowledge acquisition"
  2047.  "learning strategy"
  2048.  "concept"
  2049.  "concept learning"
  2050.  "conceptual clustering"
  2051.  "taxonomy formation"
  2052.  "machine discovery"
  2053.  "connectionist model"
  2054.  "massively parallel processing"
  2055.  "connection machine"
  2056.  "connection system"
  2057.  "neural network"
  2058.  "connectionist network"
  2059.  "neurocomputer"
  2060.  "learning task"
  2061.  "concept description"
  2062.  "chunking"
  2063.  "discrimination network"
  2064.  "characteristic description"
  2065.  "discriminant description"
  2066.  "structural description"
  2067.  "concept formation"
  2068.  "partially learned concept"
  2069.  "version space (of a concept)"
  2070.  "description space"
  2071.  "instance space (of a concept)"
  2072.  "(concept) generalization"
  2073.  "consistent generalization"
  2074.  "constraint-based generalization"
  2075.  "similarity-based generalization"
  2076.  "complete generalization"
  2077.  "specialization"
  2078.  "caching (in machine learning)"
  2079.  "concept validation"
  2080.  "confusion matrix"
  2081.  "rote learning"
  2082.  "adaptive learning"
  2083.  "advice taking"
  2084.  "learning by being told"
  2085.  "learning from instruction"
  2086.  "incremental learning"
  2087.  "supervised learning"
  2088.  "inductive learning"
  2089.  "learning from induction"
  2090.  "deductive learning"
  2091.  "analytic learning"
  2092.  "explanation-based learning"
  2093.  "operationalization"
  2094.  "learning by analogy"
  2095.  "associative learning"
  2096.  "learning from observation and discovery"
  2097.  "learning without a teacher"
  2098.  "unsupervised learning"
  2099.  "learning from examples"
  2100.  "positive example"
  2101.  "negative example"
  2102.  "near-miss"
  2103.  "credit/blame assignment"
  2104.  "causal analysis"
  2105.  "unit (in neural networks)"
  2106.  "link (in neural networks)"
  2107.  "stable coalition"
  2108.  "hidden layer"
  2109.  "back propagation"
  2110.  "transfer function"
  2111.  
  2112. For example, a "neural network" or "connectionist network" is defined as a
  2113. "A network of neuron-like processors each of which performs some simple
  2114. logical function, typically a logic threshold function. NOTE A neural
  2115. network completes a computation when its units have finished exchanging
  2116. messages and updating their potential, and settle into a stable state."
  2117.  
  2118. A "hidden layer" is defined as "An object-oriented software layer which
  2119. contains the method of instruction delivery among different programs run
  2120. by different types of data. NOTE Every processor is told to block out any
  2121. program that does not apply to the data object stored in it. From the
  2122. user's point of view however it appears that different types of processors
  2123. run different programs."
  2124.  
  2125.  --My recommendation on this proposal to the TRW representative to this
  2126. standardization body is to vote no, since it is highly premature to
  2127. standardize on terminology when the underlying concepts remain the subject
  2128. of such active research."
  2129.  
  2130. Cheers,
  2131.  
  2132. Harry Erwin
  2133. Internet: erwin@trwacs.fp.trw.com
  2134.  
  2135. ------------------------------
  2136.  
  2137. Subject: Sheet of neurons simulation
  2138. From:    fburton@nyx.cs.du.edu (Francis Burton)
  2139. Organization: University of Denver, Dept. of Math & Comp. Sci.
  2140. Date:    18 Feb 93 18:11:27 +0000
  2141.  
  2142.  
  2143. On behalf of a colleague, I am looking for software that can be used to
  2144. simulate large networks of connected neurons. The individual elements
  2145. would have fairly unsophisticated (possibly identical) input/output
  2146. properties. The topology of the network would be a flat sheet with random
  2147. local interconnections, but later he may want to extend it to several
  2148. layers. The program should run on a PC - preferably freeware, but he
  2149. would be willing to pay for a commercial product (though I don't imagine
  2150. there would be much of a market for such a program).
  2151.  
  2152. I suspect that typical programs for neural-nets are not well suited to
  2153. this particular problem -- please correct me if I am mistaken.
  2154.  
  2155. Thank you for any pointers or advice.
  2156.  
  2157. Francis Burton      Physiology, Glasgow University, Glasgow G12 8QQ, Scotland.
  2158. 041 339 8855 x8085  | JANET: F.L.Burton@glasgow.ac.uk  !net: via mcsun & uknet
  2159. "A horse! A horse!" | INTERNET: via nsfnet-relay.ac.uk BITNET: via UKACRL
  2160.  
  2161. ------------------------------
  2162.  
  2163. Subject: Re: Sheet of neurons simulation
  2164. From:    hunter@work.nlm.nih.gov (Larry Hunter)
  2165. Organization: National Library of Medicine
  2166. Date:    18 Feb 93 22:48:18 +0000
  2167.  
  2168.  
  2169. Francis Burton asks:
  2170.  
  2171.   On behalf of a colleague, I am looking for software that can be used to
  2172.   simulate large networks of connected neurons.
  2173.  
  2174. Well, there are many public domain (or nearly so) neural network
  2175. simulators out there that can do arbitrary topologies and update rules,
  2176. at least with a little bit of programming.  IMHO, by far the best, both
  2177. in terms of what comes with the system and how easy it is to program to
  2178. meet specific needs, is the Xerion system from University of Toronto.  It
  2179. has wonderful graphical interfaces (X windows) and runs on practically
  2180. any Unix/X platform.  It is originally designed for use in machine
  2181. learning and on artificial neural nets, but I think it offers a good
  2182. possibility for adaptation to natural neural network simulation.  Also,
  2183. the author of the program, Drew van Camp is pretty accessible.
  2184.  
  2185. It is available by anonymous ftp from the host ai.toronto.edu in the
  2186. directory /pub/xerion.
  2187.  
  2188. Here's a snippet from the README file:
  2189.  
  2190.   Xerion is a Neural Network simulator developed and used by the
  2191.   connectionist group at the University of Toronto. It contains libraries of
  2192.   routines for building networks, and graphically displaying them.  As well
  2193.   it contains an optimization package which can train nets using several
  2194.   different methods including conjugate gradient. It is written in C and
  2195.   uses the X window system to do the graphics. It is being given away free
  2196.   of charge to Canadian industry and researchers. It comes with NO warranty.
  2197.  
  2198.   This distribution contains all the libraries used to build the simulators
  2199.   as well as several simulators built using them (Back Propagation,
  2200.   Recurrent Back Propagation, Boltzmann Machine, Mean Field Theory, Free
  2201.   Energy Manipulation, Kohonnen Net, Hard and Soft Competitive Learning).
  2202.   Also included are some sample networks built for the individual
  2203.   simulators.
  2204.  
  2205.   There are man pages for the simulators themselves and for many of the C
  2206.   language routines in the libraries. As well, xerion has online help
  2207.   available once the simulators are started. There is a tutorial on using
  2208.   Xerion in the 'doc' directory.
  2209.  
  2210. I hope this does what you want.
  2211.  
  2212.                                 Larry
  2213.  
  2214. Lawrence Hunter, PhD.
  2215. National Library of Medicine
  2216. Bldg. 38A, MS-54
  2217. Bethesda. MD 20894 USA
  2218. tel: +1 (301) 496-9300
  2219. fax: +1 (301) 496-0673
  2220. internet: hunter@nlm.nih.gov
  2221. encryption: PGP 2.1 public key via "finger hunter@work.nlm.nih.gov"
  2222.  
  2223. ------------------------------
  2224.  
  2225. Subject: Re: Sheet of neurons simulation
  2226. From:    senseman@lucy.brainlab.utsa.edu (David M. Senseman)
  2227. Organization: University of Texas at San Antonio
  2228. Date:    19 Feb 93 13:32:04 +0000
  2229.  
  2230. In article <HUNTER.93Feb18144818@work.nlm.nih.gov> Hunter@nlm.nih.gov writes:
  2231. >IMHO, by far the best, both in terms of what
  2232. >comes with the system and how easy it is to program to meet specific needs,
  2233. >is the Xerion system from University of Toronto.
  2234.  
  2235. The original posting asked for something to run "on a PC." This sounds
  2236. unlikely to run on a PC even if it were running an X server.
  2237.  
  2238. However, if you can get a hold of a UNIX based workstation, (Sparc, SGI,
  2239. HP, IBM, etc), you might want to check out the Caltech Neurosimulator
  2240. called "GENESIS". GENESIS also sports a very nice X-windows based
  2241. front-end called "XODUS" (what else :).
  2242.  
  2243. Unlike Xerion which was primarily designed for "non-biological" neural
  2244. networks (i.e. back-propagation, etc.), GENESIS was designed from the
  2245. beginning to model REAL neurons. In fact GENESIS has a group of commands
  2246. that generates "sheets of neurons" and synaptically connects them to
  2247. other sheets. Real HHK action potentials, Calcium channels, dendrtitic
  2248. spines, etc, etc...
  2249.  
  2250. I'm at home so I don't have all the details here, but if any
  2251. one is interested, they can contact me by E-Mail.
  2252.  
  2253. Again this program MUST be run on a UNIX box that supports
  2254. X-Windows. If all you have is a PC, then this isn't for you.
  2255.  
  2256. David M. Senseman, Ph.D.              | Imagine the Creator as a low
  2257. (senseman@lonestar.utsa.edu)          | comedian, and at once the world
  2258. Life Sciences Visualization Lab       | becomes explicable.
  2259. University of Texas at San Antonio    |               H.L. Mencken
  2260.  
  2261. ------------------------------
  2262.  
  2263. Subject: NNET model choice.
  2264. From:    "Don" <schiewer@pa310m.inland.com>
  2265. Date:    Fri, 19 Feb 93 14:34:56 -0600
  2266.  
  2267. I need some help selecting a NNET model to use for a classification
  2268. problem which involves looking at 20 thermal couples over a period of
  2269. 10-20 samples.  (continuously) The idea is to respond to a fault
  2270. condition. (fault/nofault)
  2271.  
  2272. I am considering Grossberg's STC(spacio-temperal classifier) model.
  2273.  
  2274. We will be implementing on NeuralWare's Neuralmaker PRO II.
  2275.  
  2276. Does any one know of other models or have info on how best to make this
  2277. work?
  2278.  
  2279. Thanks in advance.
  2280.  
  2281. Don Schiewer   | Internet  schiewer@pa881a.inland.com    | Onward Great
  2282. Inland Steel   | UUCP:     !uucp!pa881a.inland!schiewer  | Stream...
  2283.  
  2284.  
  2285. ------------------------------
  2286.  
  2287. Subject: Handbook of Neural Algorithms
  2288. From:    "Sean Pidgeon" <pidgeon@a1.relay.upenn.edu>
  2289. Date:    Thu, 25 Feb 93 11:58:01 -0500
  2290.  
  2291.  
  2292. I would like to thank all those who took the trouble to respond to the
  2293. questionnaire posted in the 23 September 1992 issue by my colleague Tamara
  2294. Isaacs-Smith. The level of interest in our proposed Handbook has been
  2295. gratifying. A focus group was convened in Philadelphia on February 23 to
  2296. discuss the best way forward for the project, and our editorial plan is now
  2297. quite well developed.
  2298.  
  2299. All those interested in learning more about the Handbook project are
  2300. invited to contact me directly or to visit the IOP Publishing booth at the
  2301. World Congress on Neural Networks in Portland. Again, thanks for your
  2302. support.
  2303.  
  2304.  
  2305. ------------------------------
  2306.  
  2307. Subject: COMPUTER STANDARDS & INTERFACES addendum
  2308. From:    John Fulcher <john@cs.uow.edu.au>
  2309. Date:    Fri, 26 Feb 93 13:55:36 -0500
  2310.  
  2311. COMPUTER STANDARDS & INTERFACES (North-Holland)
  2312.  
  2313. Forthcoming Special Issue on ANN Standards
  2314.  
  2315. ADDENDUM TO ORIGINAL POSTING
  2316.  
  2317. Prompted by enquiries from several people regarding my original Call for
  2318. Papers posting, I felt I should offer the following additional information
  2319. (clarification).
  2320.  
  2321. By ANN "Standards" we do not mean exclusively formal standards (in the ISO,
  2322. IEEE, ANSI, CCITT etc. sense), although naturally enough we will be
  2323. including papers on activities in these areas.
  2324.  
  2325. "Standards" should be interpreted in its most general sense, namely as
  2326. standard APPROACHES (e.g. the backpropagation algorithm & its many
  2327. variants).  Thus if you have a paper on some (any?) aspect of ANNs,
  2328. provided it is prefaced by a summary of the standard approach(es) in that
  2329. particular area, it could well be suitable for inclusion in this special
  2330. issue of CS&I. If in doubt, post fax or email a copy by April 30th to:
  2331.  
  2332. John Fulcher,
  2333. Department of Computer Science,
  2334. University of Wollongong,
  2335. Northfields Avenue,
  2336. Wollongong NSW 2522,
  2337. Australia.
  2338.  
  2339. fax: +61 42 213262
  2340. email: john@cs.uow.edu.au.oz
  2341.  
  2342.  
  2343. ------------------------------
  2344.  
  2345. Subject: Position Available at JPL
  2346. From:    Padhraic Smyth <pjs@bvd.Jpl.Nasa.Gov>
  2347. Date:    Thu, 18 Feb 93 11:49:36 -0800
  2348.  
  2349.  
  2350.  We currently have an opening in our group for a new PhD graduate
  2351.  in the general area of signal processing and pattern recognition.
  2352.  While the job description does not mention neural computation per
  2353.  se, it may be of interest to some members of the this
  2354.  mailing list. For details see below.
  2355.  
  2356.  Padhraic Smyth, JPL
  2357.  
  2358.  
  2359.  
  2360.  
  2361.  
  2362.                      RESEARCH POSITION AVAILABLE
  2363.                               AT THE
  2364.                       JET PROPULSION LABORATORY,
  2365.                  CALIFORNIA INSTITUTE OF TECHNOLOGY
  2366.  
  2367.  
  2368.  The Communications Systems Research Section at JPL has an immediate
  2369.  opening for a permanent member of technical staff in the area of
  2370.  adaptive signal processing and statistical pattern recognition.
  2371.  
  2372.  The position requires a PhD in Electrical Engineering or a closely
  2373.  related field and applicants should have a demonstrated ability
  2374.  to perform independent research.
  2375.  
  2376.  A background in statistical signal processing is highly desirable.
  2377.  Background in information theory, estimation and detection, advanced
  2378.  statistical methods, and pattern recognition, would also be a plus.
  2379.  
  2380.  Current projects within the group include the use of hidden Markov
  2381.  models for change detection in time series, and statistical methods
  2382.  for geologic feature detection in remotely sensed image data. The
  2383.  successful applicant will be expected to perform both basic and
  2384.  applied research and to propose and initiate new research projects.
  2385.  
  2386.  Permanent residency or U.S. citizenship is not a strict requirement
  2387.  - however, candidates not in either of these categories should be
  2388.  aware that their applications will only be considered in
  2389.  exceptional cases.
  2390.  
  2391.  Interested applicants  should send their resume (plus any supporting
  2392.  background material such as recent relevant papers) to:
  2393.  
  2394.  Dr. Stephen Townes
  2395.  JPL 238-420
  2396.  4800 Oak Grove Drive
  2397.  Pasadena, CA 91109.
  2398.  
  2399.  (email: townes@bvd.jpl.nasa.gov)
  2400.  
  2401.  
  2402.  
  2403.  
  2404. ------------------------------
  2405.  
  2406. Subject: lectureship
  2407. From:    Tony_Prescott <tony@aivru.shef.ac.uk>
  2408. Date:    Fri, 19 Feb 93 10:59:46 +0000
  2409.  
  2410.  
  2411.  
  2412.                 LECTURESHIP IN COGNITIVE SCIENCE
  2413.                   University of Sheffield, UK.
  2414.  
  2415. Applications are invited for the above post tenable from 1st October 1993
  2416. for three years in the first instance but with expectation of renewal.
  2417. Preference will be given to candidates with a PhD in Cognitive Science,
  2418. Artificial Intelligence, Cognitive Psychology, Computer Science, Robotics,
  2419. or related disciplines.
  2420.  
  2421. The Cognitive Science degree is an integrated course taught by the departments
  2422. of Psychology and Computer Science. Research in Cognitive Science was highly
  2423. evaluated in the recent UFC research evaluation exercise, special areas of
  2424.  interest being vision, speech, language, neural networks,
  2425.  and learning. The
  2426. successful candidate will be expected to undertake research vigorously.
  2427. Supervision of programming projects will be required, hence considerable
  2428. experience with Lisp, Prolog, and/or C is essential.
  2429.  
  2430. It is expected that the appointment will be made on the Lecturer A scale
  2431. (13,400-18,576 pounds(uk) p.a.) according to age and experience but enquiries
  2432. from more experienced staff able to bring research resources are welcomed.
  2433.  
  2434. Informal enquiries to Professor John P Frisby 044-(0)742-826538 or e-mail
  2435. jpf@aivru.sheffield.ac.uk.  Further particulars from the director of Personnel
  2436. Services, The University, Sheffield S10 2TN, UK, to whom all applications
  2437. including a cv and the names and addresses of three referees (6 copies of all
  2438. documents) should be sent by 1 April 1993.
  2439.  
  2440. Short-listed candidates will be invited to Sheffield for interview for which
  2441. travel expenses (within the UK only) will be funded.
  2442.  
  2443. Current permanent research staff in Cognitive Science at Sheffield include:
  2444.         Prof John Frisby (visual psychophysics),
  2445.         Prof John Mayhew (computer vision, robotics, neural networks)
  2446.         Prof Yorik Wilks (natural language understanding)
  2447.         Dr Phil Green (speech recognition)
  2448.         Dr John Porrill (computer vision)
  2449.         Dr Paul McKevitt (natural language understanding)
  2450.         Dr Peter Scott (computer assisted learning)
  2451.         Dr Rod Nicolson (human learning)
  2452.         Dr Paul Dean (neuroscience, neural networks)
  2453.         Mr Tony Prescott (neural networks, comparative cog sci)
  2454.  
  2455.  
  2456. ------------------------------
  2457.  
  2458. Subject: Industrial Position in Artificial Intelligence and/or Neural Networks
  2459. From:    Jerome Soller <soller@asylum.cs.utah.edu>
  2460. Date:    Fri, 19 Feb 93 14:09:43 -0700
  2461.  
  2462.  
  2463.         I have just been made aware of a job opening in artificial
  2464. intelligence and/or neural networks in southeast Ogden, UT.  This
  2465. company maintains strong technical interaction with existing industrial,
  2466. U.S. government laboratory, and university strengths in Utah.  Ogden
  2467. is a half hour to 45 minute drive from Salt Lake City, UT.
  2468. For further information, contact Dale Sanders at 801-625-8343  or
  2469. dsanders@bmd.trw.com .  The full job description is listed below.
  2470.                                         Sincerely,
  2471.  
  2472.                                 Jerome Soller
  2473.                                 U. of Utah Department of Computer Science
  2474.                         and     VA Geriatric, Research, Education and
  2475.                                         Clinical Center
  2476.  
  2477. Knowledge engineering and expert systems development.  Requires
  2478. five years formal software development experience, including two years
  2479. expert systems development.  Requires experience implementing
  2480. at least one working expert system.  Requires familiarity with expert
  2481. systems development tools and DoD specification practices.  Experience with
  2482. neural nets or fuzzy logic systems may qualify as equivalent experience
  2483. to expert systems development.  Familiarity with Ada, C/C++, database design,
  2484. and probabilistic risk assessment strongly desired.  Requires strong
  2485. communication and customer interface skills.  Minimum degree:  BS in
  2486. computer science, engineering, math, or physical science.  M.S. or Ph.D.
  2487. preferred.  U.S. Citizenship is required.  Relocation funding is limited.
  2488.  
  2489.  
  2490.  
  2491.  
  2492. ------------------------------
  2493.  
  2494. Subject: lectureship in cognitive science
  2495. From:    Martin Cooke <M.Cooke@DCS.SHEFFIELD.AC.UK>
  2496. Date:    Tue, 23 Feb 93 12:54:29 +0000
  2497.  
  2498. To Dan: thanks, and all the best for the auditory list.
  2499. To the list: a job possibility
  2500.  
  2501. Martin
  2502. - ------------------------------
  2503.  
  2504.                 LECTURESHIP IN COGNITIVE SCIENCE
  2505.                   University of Sheffield, UK.
  2506.  
  2507. Applications are invited for the above post tenable from 1st October
  2508. 1993 for three years in the first instance but with expectation of
  2509. renewal. Preference will be given to candidates with a PhD in
  2510. Cognitive Science, Artificial Intelligence, Cognitive Psychology,
  2511. Computer Science, Robotics, or related disciplines.
  2512.  
  2513. The Cognitive Science degree is an integrated course taught by the
  2514. departments of Psychology and Computer Science. Research in Cognitive
  2515. Science was highly evaluated in the recent UFC research evaluation
  2516. exercise, special areas of interest  being vision, speech, language,
  2517. neural networks, and learning. The successful candidate will be
  2518. expected to undertake research vigorously. Supervision of programming
  2519. projects will be required, hence considerable experience with Lisp,
  2520. Prolog, and/or C is essential.
  2521.  
  2522. It is expected that the appointment will be made on the Lecturer A
  2523. scale (13,400-18,576 pounds(uk) p.a.) according to age and experience
  2524. but enquiries from more experienced staff able to bring research
  2525. resources are welcomed.
  2526.  
  2527. Informal enquiries to Professor John P Frisby 044-(0)742-826538 or
  2528. e-mail jpf@aivru.sheffield.ac.uk.  Further particulars from the
  2529. director of Personnel Services, The University, Sheffield S10 2TN,
  2530. UK, to whom all applications including a cv and the names and
  2531. addresses of three referees (6 copies of all documents) should be
  2532. sent by 1 April 1993.
  2533.  
  2534. Short-listed candidates will be invited to Sheffield for interview
  2535. for which travel expenses (within the UK only) will be funded.
  2536.  
  2537. Current permanent research staff in Cognitive Science at Sheffield
  2538. include:
  2539.         Prof J P Frisby (visual psychophysics),
  2540.         Prof J E W Mayhew *(computer vision, robotics, neural
  2541. networks)
  2542.         Prof Y Wilks (natural language understanding, from June 93)
  2543.         Dr P D Green (speech recognition)
  2544.         Dr J Porrill (computer vision)
  2545.         Dr P McKevitt (natural language understanding)
  2546.         Dr P Scott (computer assisted learning)
  2547.         Dr R I Nicolson (human learning)
  2548.         Dr P Dean (neuroscience, neural networks)
  2549.         Dr M P Cooke (auditory modelling)
  2550.         Dr G J Brown (auditory modelling)
  2551.         Mr A J Prescott (neural networks, comparative cog sci)
  2552.  
  2553.  
  2554. ------------------------------
  2555.  
  2556. Subject: Microsoft Speech Research
  2557. From:    Xuedong Huang <xueh@microsoft.com>
  2558. Date:    Tue, 23 Feb 93 22:19:47 -0800
  2559.  
  2560.  
  2561. As you may know, I've started a new speech group here at Microsoft. For
  2562. your information, I have enclosed the full advertisement we have been
  2563. using to publicize the openings.  If you are interested in joining MS,
  2564. I strongly encourage you to apply and we will look forward to following
  2565. up with you.
  2566.  
  2567. - ------------------------------------------------------------
  2568. THE FUTURE IS HERE.
  2569.  
  2570. Speech Recognition.  Intuitive Graphical Interfaces.
  2571. Sophisticated User Agents.  Advanced Operating Systems.
  2572. Robust Environments.  World Class Applications.
  2573.  
  2574.         Who's Pulling It All Together?
  2575.  
  2576. Microsoft.  We're setting the stage for the future of
  2577. computing, building a world class research group and
  2578. leveraging a solid foundation of object based technology
  2579. and scalable operating systems.
  2580.         What's more, we're extending the recognition
  2581. paradigm, employing advanced processor and RISC-based
  2582. architecture, and harnessing distributed networks to
  2583. connect users to worlds of information.
  2584.         We want to see more than just our own software
  2585. running.  We want to see a whole generation of users
  2586. realize the future of computing.
  2587.         Realize your future with a position in our
  2588. Speech Recognition group.
  2589.  
  2590.  
  2591. Research Software Design Engineers, Speech Recognition.
  2592.  
  2593. Primary responsibilities include designing and developing
  2594. User Interface and systems level software for an advanced
  2595. speech recognition system.  A minimum of 3 years demonstrated
  2596. microcomputer software design and development experience
  2597. in C is required.  Knowledge of Windows programming, speech
  2598. recognition systems, hidden Markov model theory,  statistics,
  2599. DSP,  or user interface development is preferred.  A BA/BS
  2600. in computer science or related discipline is required.  An
  2601. advanced degree (MS or Ph.D.) in a related discipline is
  2602. preferred.
  2603.  
  2604.  
  2605. Researchers, Speech Recognition.
  2606.  
  2607. Primary responsibilities include research on stochastic
  2608. modeling techniques to be applied to an advanced speech
  2609. recognition system.  A minimum of 4 years demonstrated
  2610. research excellence in the area of speech recognition
  2611. or spoken language understanding systems is required.
  2612. Knowledge of Windows and real-time C programming for
  2613. microcomputers, hidden Markov model theory, decoder
  2614. systems design, DSP, and spoken language understanding
  2615. is preferred.  A MA/MS in CS or related discipline is
  2616. required.  A PhD degree in CS, EE, or related discipline
  2617. is preferred.
  2618.  
  2619.  
  2620.         Make The Most of Your Future.
  2621.  
  2622. At Microsoft, our technical leadership and strong
  2623. Software Developers and Researchers stay ahead of the
  2624. times, creating vision and turning it into reality.
  2625.  
  2626. To apply, send your resume and cover letter, noting
  2627. "ATTN: N5935-0223" to:
  2628.  
  2629. Surface:
  2630.         Microsoft Recruiting
  2631.         ATTN: N5935-0223
  2632.         One Microsoft Way
  2633.         Redmond, WA  98052-6399
  2634.  
  2635. Email:
  2636.         ASCII ONLY
  2637.         y-wait@microsoft.com.us
  2638.  
  2639. Microsoft is an equal opportunity employer working to
  2640. increase workforce diversity.
  2641.  
  2642.  
  2643.  
  2644. ------------------------------
  2645.  
  2646. Subject: Neural Computation & Cognition: Opening for NN Programmer
  2647. From:    gluck@pavlov.rutgers.edu (Mark Gluck)
  2648. Date:    Mon, 22 Feb 93 08:04:28 -0500
  2649.  
  2650.  
  2651.        POSITION AVAILABLE: NEURAL-NETWORK RESEARCH PROGRAMMER
  2652.  
  2653. At the Center for Neuroscience at Rutgers-Newark, we have an opening
  2654. for a full or part-time research programmer to assist in developing
  2655. neural-network simulations. The research involves integrated
  2656. experimental and theoretical analyses of the cognitive and neural bases
  2657. of learning and memory. The focus of this research is on understanding
  2658. the underlying neurobiological mechanisms for complex learning
  2659. behaviors in both animals and humans.
  2660.  
  2661. Substantial prior experience and understanding of neural-network
  2662. theories and algorithms is required. Applicants should have a high
  2663. level of programming experience (C or Pascal), and familiarity with
  2664. Macintosh and/or UNIX. Strong English-language communication and
  2665. writing skills are essential.
  2666.  
  2667. *** This position would be particularly appropriate for a graduating
  2668. college senior who seeks "hands-on" research experience prior to
  2669. graduate school in the cognitive, neural, or computational sciences ***
  2670.  
  2671. Applications are being accepted now for an immediate start-date or for
  2672. starting in June or September of this year. NOTE TO N. CALIF.
  2673. APPLICANTS:  Interviews for applicants from the San Francisco/Silicon
  2674. Valley area will be conducted at Stanford in late March. The
  2675. Neuroscience Center is located 20 minutes outside of New York City in
  2676. northern New Jersey.
  2677.  
  2678. For further information, please send an email or hard-copy letter
  2679. describe your relevant background, experience, and career goals to:
  2680.  
  2681. ______________________________________________________________________
  2682.  
  2683. Dr. Mark A. Gluck
  2684. Center for Molecular & Behavioral Neuroscience
  2685. Rutgers University
  2686. 197 University Ave.
  2687. Newark, New Jersey  07102
  2688.  
  2689.         Phone:  (201) 648-1080 (Ext. 3221)
  2690.         Fax:    (201) 648-1272
  2691.         Email:  gluck@pavlov.rutgers.edu
  2692.  
  2693.  
  2694.  
  2695. ------------------------------
  2696.  
  2697. End of Neuron Digest [Volume 11 Issue 15]
  2698. *****************************************
  2699.