home *** CD-ROM | disk | FTP | other *** search
/ Collection of Hack-Phreak Scene Programs / cleanhpvac.zip / cleanhpvac / BRAIN12.ZIP / nn.faq < prev    next >
Internet Message Format  |  1994-01-08  |  50KB

  1. From prechelt@ira.uka.de (Lutz Prechelt)
  2. Newsgroups: comp.ai.neural-nets,comp.answers,news.answers
  3. Subject: FAQ in comp.ai.neural-nets -- monthly posting
  4. Date: 1 Jun 1993 07:35:06 GMT
  5.  
  6. Archive-name: neural-net-faq
  7. Last-modified: 93/05/20
  8.  
  9. (FAQ means "Frequently Asked Questions")
  10.  
  11.   ------------------------------------------------------------------------
  12.         Anybody who is willing to contribute any question or
  13.         information, please email me; if it is relevant,
  14.         I will incorporate it. But: Please format your contribution
  15.         appropriately so that I can just drop it in.
  16.  
  17.         The monthly posting departs at the 28th of every month.
  18.   ------------------------------------------------------------------------
  19.  
  20. This is a monthly posting to the Usenet newsgroup comp.ai.neural-nets
  21. (and news.answers, where it should be findable at ANY time)
  22. Its purpose is to provide basic information for individuals who are
  23. new to the field of neural networks or are just beginning to read this 
  24. group. It shall help to avoid lengthy discussion of questions that usually 
  25. arise for beginners of one or the other kind.
  26.  
  27. >>>>> SO, PLEASE, SEARCH THIS POSTING FIRST IF YOU HAVE A QUESTION <<<<<
  28.                            and
  29. >>>>> DON'T POST ANSWERS TO FAQs: POINT THE ASKER TO THIS POSTING <<<<<
  30.  
  31. This posting is archived in the periodic posting archive on
  32. host trfm.mit.edu (and on some other hosts as well).
  33. Look in the anonymous ftp directory "/pub/usenet/news.answers",
  34. the filename is as given in the 'Archive-name:' header above.
  35. If you do not have anonymous ftp access, you can access the archives
  36. by mail server as well.  Send an E-mail message to
  37. mail-server@rtfm.mit.edu with "help" and "index" in the body on
  38. separate lines for more information.
  39.  
  40.  
  41. The monthly posting is not meant to discuss any topic exhaustively.
  42.  
  43. Disclaimer: This posting is provided 'as is'.
  44.             No warranty whatsoever is expressed or implied, 
  45.             especially, no warranty that the information contained herein
  46.             is correct or useful in any way, although both is intended.
  47.  
  48. >> To find the answer of question number <x> (if present at all), search
  49. >> for the string "-A<x>.)" (so the answer to question 12 is at "-A12.)")
  50.  
  51. And now, in the end, we begin:
  52.  
  53. ============================== Questions ==============================
  54.  
  55. (the short forms and non-continous numbering is intended)
  56. 1.)  What is this newsgroup for ?  How shall it be used ?
  57. 2.)  What is a neural network (NN) ?
  58. 3.)  What can you do with a Neural Network and what not ?
  59. 4.)  Who is concerned with Neural Networks ?
  60.  
  61. 6.)  What does 'backprop' mean ?
  62. 7.)  How many learning methods for NNs exist ?  Which ?
  63. 8.)  What about Genetic Algorithms ?
  64. 9.)  What about Fuzzy Logic ?
  65.  
  66. 10.) Good introductory literature about Neural Networks ?
  67. 11.) Any journals and magazines about Neural Networks ?
  68. 12.) The most important conferences concerned with Neural Networks ?
  69. 13.) Neural Network Associations ?
  70. 14.) Other sources of information about NNs ?
  71.  
  72. ============================== Answers ==============================
  73.  
  74. ------------------------------------------------------------------------
  75.  
  76. -A1.)  What is this newsgroup for ?
  77.  
  78. The newsgroup comp.ai.neural-nets is inteded as a forum for people who want
  79. to use or explore the capabilities of Neural Networks or Neural-Network-like
  80. structures.
  81.  
  82. There should be the following types of articles in this newsgroup:
  83.  
  84. 1. Requests
  85.  
  86.   Requests are articles of the form 
  87.     "I am looking for X"
  88.   where X is something public like a book, an article, a piece of software.
  89.  
  90.   If multiple different answers can be expected, the person making the 
  91.   request should prepare to make a summary of the answers he/she got
  92.   and announce to do so with a phrase like
  93.     "Please email, I'll summarize"
  94.   at the end of the posting.
  95.   
  96.   The Subject line of the posting should then be something like
  97.     "Request: X"
  98.  
  99. 2. Questions
  100.  
  101.   As opposed to requests, questions are concerned with something so specific
  102.   that general interest cannot readily be assumed.
  103.   If the poster thinks that the topic is of some general interest,
  104.   he/she should announce a summary (see above).
  105.  
  106.   The Subject line of the posting should be something like
  107.     "Question: this-and-that"
  108.   or have the form of a question (i.e., end with a question mark)
  109.  
  110. 3. Answers
  111.  
  112.   These are reactions to questions or requests.
  113.   As a rule of thumb articles of type "answer" should be rare.
  114.   Ideally, in most cases either the answer is too specific to be of general 
  115.   interest (and should thus be e-mailed to the poster) or a summary
  116.   was announced with the question or request (and answers should
  117.   thus be e-mailed to the poster).
  118.  
  119.   The subject lines of answers are automatically adjusted by the 
  120.   news software.
  121.  
  122. 4. Summaries
  123.  
  124.   In all cases of requests or questions the answers for which can be assumed
  125.   to be of some general interest, the poster of the request or question 
  126.   shall summarize the ansers he/she received.
  127.   Such a summary should be announced in the original posting of the question
  128.   or request with a phrase like
  129.     "Please answer by email, I'll summarize"
  130.  
  131.   In such a case answers should NOT be posted to the newsgroup but instead
  132.   be mailed to the poster who collects and reviews them.
  133.   After about 10 to 20 days from the original posting, its poster should 
  134.   make the summary of answers and post it to the net.
  135.  
  136.   Some care should be invested into a summary:
  137.   a) simple concatenation of all the answers is not enough;
  138.      instead redundancies, irrelevancies, verbosities and
  139.      errors must be filtered out (as good as possible),
  140.   b) the answers shall be separated clearly
  141.   c) the contributors of the individual answers shall be identifiable
  142.      (unless they requested to remain anonymous [yes, that happens])
  143.   d) the summary shall start with the "quintessence" of the answers,
  144.      as seen by the original poster
  145.   e) A summary should, when posted, clearly be indicated to be one
  146.      by giving it a Subject line starting with "Summary:"
  147.  
  148.   Note that a good summary is pure gold for the rest of the newsgroup
  149.   community, so summary work will be most appreciated by all of us.
  150.   (Good summaries are more valuable than any moderator !  :-> )
  151.  
  152. 5. Announcements
  153.  
  154.   Some articles never need any public reaction.
  155.   These are called announcements (for instance for a workshop,
  156.   conference or the availability of some technical report or
  157.   software system).
  158.  
  159.   Announcements should be clearly indicated to be such by giving
  160.   them a subject line of the form
  161.     "Announcement: this-and-that"
  162.  
  163. 6. Reports
  164.  
  165.   Sometimes people spontaneously want to report something to the
  166.   newsgroup. This might be special experiences with some software,
  167.   results of own experiments or conceptual work, or especially 
  168.   interesting information from somewhere else.
  169.  
  170.   Reports should be clearly indicated to be such by giving
  171.   them a subject line of the form
  172.     "Report: this-and-that"
  173.   
  174. 7. Discussions
  175.  
  176.   An especially valuable possibility of Usenet is of course that of
  177.   discussing a certain topic with hundreds of potential participants.
  178.   All traffic in the newsgroup that can not be subsumed under one of
  179.   the above categories should belong to a discussion.
  180.  
  181.   If somebody explicitly wants to start a discussion, he/she can do so
  182.   by giving the posting a subject line of the form
  183.     "Start discussion: this-and-that"
  184.   (People who react on this, please remove the
  185.    "Start discussion: " label from the subject line of your replies)
  186.  
  187.   It is quite difficult to keep a discussion from drifting into chaos,
  188.   but, unfortunately, as many many other newsgroups show there seems
  189.   to be no secure way to avoid this.
  190.   On the other hand, comp.ai.neural-nets has not had many problems
  191.   with this effect in the past, so let's just go and hope...   :->
  192.  
  193. ------------------------------------------------------------------------
  194.  
  195. -A2.)  What is a neural network (NN) ?
  196.  
  197.   [anybody there to write something better?
  198.    buzzwords: artificial vs. natural/biological; units and
  199.    connections; value passing; inputs and outputs; storage in structure
  200.    and weights; only local information; highly parallel operation ]
  201.  
  202. First of all, when we are talking about a neural network, we *should*
  203. usually better say "artificial neural network" (ANN), because that is
  204. what we mean  most of the time. Biological neural networks are much
  205. more complicated in their elementary structures than the mathematical
  206. models we use for ANNs.
  207.  
  208. A vague description is as follows:
  209.  
  210. An ANN is a network of many very simple processors ("units"), each
  211. possibly having a (small amount of) local memory. The units are
  212. connected by unidirectional communication channels ("connections"),
  213. which carry numeric (as opposed to symbolic) data.  The units operate
  214. only on their local data and on the inputs they receive via the
  215. connections.
  216.  
  217. The design motivation is what distinguishes neural networks from other
  218. mathematical techniques:
  219.  
  220. A neural network is a processing device, either an algorithm, or actual
  221. hardware, whose design was motivated by the design and functioning of human
  222. brains and components thereof.
  223.  
  224. Most neural networks have some sort of "training" rule
  225. whereby the weights of connections are adjusted on the basis of
  226. presented patterns.
  227. In other words, neural networks "learn" from examples,
  228. just like children learn to recognize dogs from examples of dogs,
  229. and exhibit some structural capability for generalization.
  230.  
  231. Neural networks normally have great potential for parallelism, since
  232. the computations of the components are independent of each other.
  233.  
  234. ------------------------------------------------------------------------
  235.  
  236. -A3.)  What can you do with a Neural Network and what not ?
  237.  
  238.   [preliminary]
  239.   
  240. In principle, NNs can compute any computable function, i.e. they can
  241. do everything a normal digital computer can do.
  242. Especially can anything that can be represented as a mapping between
  243. vector spaces be approximated to arbitrary precision by feedforward
  244. NNs (which is the most often used type).
  245.  
  246. In practice, NNs are especially useful for mapping problems
  247. which are tolerant of a high error rate, have lots of example data
  248. available, but to which hard and fast rules can not easily be applied.
  249.  
  250. NNs are especially bad for problems that are concerned with manipulation 
  251. of symbols and for problems that need short-term memory.
  252.  
  253. ------------------------------------------------------------------------
  254.  
  255. -A4.)  Who is concerned with Neural Networks ?
  256.  
  257. Neural Networks are interesting for quite a lot of very dissimilar people:
  258.  
  259. - Computer scientists want to find out about the properties of 
  260.   non-symbolic information processing with neural nets and about learning 
  261.   systems in general.
  262. - Engineers of many kinds want to exploit the capabilities of 
  263.   neural networks on many areas (e.g. signal processing) to solve 
  264.   their application problems.
  265. - Cognitive scientists view neural networks as a possible apparatus to
  266.   describe models of thinking and conscience (High-level brain function).
  267. - Neuro-physiologists use neural networks to describe and explore
  268.   medium-level brain function (e.g. memory, sensory system, motorics).
  269. - Physicists use neural networks to model phenomena in statistical
  270.   mechanics and for a lot of other tasks.
  271. - Biologists use Neural Networks to interpret nucleotide sequences.
  272. - Philosophers and some other people may also be interested in 
  273.   Neural Networks for various reasons.
  274.  
  275. ------------------------------------------------------------------------
  276.  
  277. -A6.)  What does 'backprop' mean ?
  278.  
  279. [anybody to write something similarly short,
  280.  but easier to understand for a beginner ? ]
  281.  
  282. It is an abbreviation for 'backpropagation of error' which is the
  283. most widely used learning method for neural networks today.
  284. Although it has many disadvantages, which could be summarized in the
  285. sentence
  286.   "You are almost not knowing what you are actually doing
  287.    when using backpropagation"  :-)
  288. it has pretty much success on practical applications and is
  289. relatively easy to apply.
  290.  
  291. It is for the training of layered (i.e., nodes are grouped
  292. in layers) feedforward (i.e., the arcs joining nodes are
  293. unidirectional, and there are no cycles) nets.
  294.  
  295. Back-propagation needs a teacher that knows the correct output for any
  296. input ("supervised learning") and uses gradient descent on the error
  297. (as provided by the teacher) to train the weights.  The activation
  298. function is (usually) a sigmoidal (i.e., bounded above and below, but
  299. differentiable) function of a weighted sum of the nodes inputs.
  300.  
  301. The use of a gradient descent algorithm to train its weights makes it
  302. slow to train; but being a feedforward algorithm, it is quite rapid during
  303. the recall phase.
  304.  
  305. Literature:
  306.   Rumelhart, D. E. and McClelland, J. L. (1986): 
  307.   Parallel Distributed Processing: Explorations in the
  308.   Microstructure of Cognition (volume 1, pp 318-362). 
  309.   The MIT Press. 
  310. (this is the classic one) or one of the dozens of other books 
  311. or articles on backpropagation  :->
  312.  
  313. ------------------------------------------------------------------------
  314.  
  315. -A7.)  How many learning methods for NNs exist ?  Which ?
  316.  
  317. There are many many learning methods for NNs by now. Nobody can know 
  318. exactly how many.
  319. New ones (at least variations of existing ones) are invented every
  320. week. Below is a collection of some of the most well known methods;
  321. not claiming to be complete.
  322.  
  323. The main categorization of these methods is the distiction of 
  324. supervised from unsupervised learning:
  325.  
  326. - In supervised learning, there is a "teacher" who in the learning
  327.   phase "tells" the net how well it performs ("reinforcement learning")
  328.   or what the correct behavior would have been ("fully supervised learning").
  329.  
  330. - In unsupervised learning the net is autonomous: it just looks at
  331.   the data it is presented with, finds out about some of the
  332.   properties of the data set and learns to reflect these properties 
  333.   in its output. What exactly these properties are, that the network
  334.   can learn to recognise, depends on the particular network model and
  335.   learning method.
  336.   
  337. Many of these learning methods are closely connected with a certain
  338. (class of) network topology.
  339.  
  340. Now here is the list, just giving some names:
  341.   
  342. 1. UNSUPERVISED LEARNING (i.e. without a "teacher"):
  343.        1). Feedback Nets:
  344.        a). Additive Grossberg (AG)
  345.        b). Shunting Grossberg (SG)
  346.        c). Binary Adaptive Resonance Theory (ART1)
  347.        d). Analog Adaptive Resonance Theory (ART2, ART2a)
  348.        e). Discrete Hopfield (DH)
  349.        f). Continuous Hopfield (CH)
  350.        g). Discrete Bidirectional Associative Memory (BAM)
  351.        h). Temporal Associative Memory (TAM)
  352.        i). Adaptive Bidirectional Associative Memory (ABAM)
  353.            j). Kohonen Self-organizing Map (SOM)
  354.            k). Kohonen Topology-preserving Map (TPM)
  355.        2). Feedforward-only Nets:
  356.        a). Learning Matrix (LM)
  357.        b). Driver-Reinforcement Learning (DR)
  358.        c). Linear Associative Memory (LAM)
  359.        d). Optimal Linear Associative Memory (OLAM)
  360.        e). Sparse Distributed Associative Memory (SDM)
  361.        f). Fuzzy Associative Memory (FAM)
  362.        g). Counterprogation (CPN)
  363.  
  364. 2. SUPERVISED LEARNING (i.e. with a "teacher"):
  365.        1). Feedback Nets:
  366.        a). Brain-State-in-a-Box (BSB)
  367.        b). Fuzzy Congitive Map (FCM)
  368.        c). Boltzmann Machine (BM)
  369.            d). Mean Field Annealing (MFT)
  370.            e). Recurrent Cascade Correlation (RCC)
  371.        f). Learning Vector Quantization (LVQ)
  372.        2). Feedforward-only Nets:
  373.        a). Perceptron
  374.        b). Adaline, Madaline
  375.        c). Backpropagation (BP)
  376.        d). Cauchy Machine (CM)
  377.        e). Adaptive Heuristic Critic (AHC)
  378.            f). Time Delay Neural Network (TDNN)
  379.        g). Associative Reward Penalty (ARP)
  380.        h). Avalanche Matched Filter (AMF)
  381.            i). Backpercolation (Perc)
  382.            j). Artmap
  383.            k). Adaptive Logic Network (ALN)
  384.            l). Cascade Correlation (CasCor)
  385.  
  386. ------------------------------------------------------------------------
  387.  
  388. -A8.)  What about Genetic Algorithms ?
  389.  
  390. [preliminary]
  391. [Who will write a better introduction?]
  392.  
  393. There are a number of definitions of GA (Genetic Algorithm).
  394. A possible one is
  395.  
  396.   A GA is an optimization program 
  397.   that starts with some encoded procedure,  (Creation of Life :-> )
  398.   mutates it stochastically,                (Get cancer or so :-> )
  399.   and uses a selection process              (Darwinism)
  400.   to prefer the mutants with high fitness
  401.   and perhaps a recombination process       (Make babies :-> )
  402.   to combine properties of (preferably) the succesful mutants.
  403.  
  404. There is a newsgroup that is dedicated to Genetic Algorithms 
  405. called comp.ai.genetic.
  406. Some GA discussion also tends to happen in comp.ai.neural-nets.
  407. Another loosely relevant group is comp.theory.self-org-sys.
  408. There is a GA mailing list which you can subscribe to by
  409. sending a request to GA-List-Request@AIC.NRL.NAVY.MIL
  410. You can also try anonymous ftp to
  411.   ftp.aic.nrl.navy.mil
  412. in the /pub/galist directory. There are papers and some software.
  413.  
  414. For more details see (for example):
  415.  
  416. "Genetic Algorithms in Search Optimisation and Machine Learning"
  417. by David Goldberg (Addison-Wesley 1989, 0-201-15767-5) or 
  418.  
  419. "Handbook of Genetic Algorithms"
  420. edited by Lawrence Davis (Van Nostrand Reinhold 1991 0-442-00173-8) or
  421.  
  422. "Classifier Systems and Genetic Algorithms"
  423. L.B. Booker, D.E. Goldberg and J.H. Holland, Techreport No. 8 (April 87),
  424. Cognitive Science and Machine Intelligence Laboratory, University of Michigan
  425.   also reprinted in :
  426. Artificial Intelligence, Volume 40 (1989), pages 185-234
  427.  
  428. ------------------------------------------------------------------------
  429.  
  430. -A9.)  What about Fuzzy Logic ?
  431.  
  432. [preliminary]
  433. [Who will write an introduction?]
  434.  
  435. Fuzzy Logic is an area of research based on the work of L.A. Zadeh.
  436. It is a departure from classical two-valued sets and logic, that uses
  437. "soft" linguistic (e.g. large, hot, tall) system variables and a
  438. continuous range of truth values in the interval [0,1], rather than
  439. strict binary (True or False) decisions and assignments.
  440. Fuzzy logic is used where a system is difficult to model, is
  441. controlled by a human operator or expert, or where ambiguity or
  442. vagueness is common.  A typical fuzzy system consists of a rule base,
  443. membership functions, and an inference procedure.
  444.  
  445. Most Fuzzy Logic discussion takes place in the newsgroup comp.ai.fuzzy,
  446. but there is also some work (and discussion) about combining fuzzy
  447. logic with Neural Network approaches in comp.ai.neural-nets.
  448.  
  449. For more details see (for example):
  450.  
  451. Klir, G.J. and Folger, T.A., Fuzzy Sets, Uncertainty, and 
  452. Information, Prentice-Hall, Englewood 
  453. Cliffs, N.J., 1988.
  454.  
  455. Kosko, B., Neural Networks and Fuzzy Systems, Prentice Hall, 
  456. Englewood Cliffs, NJ, 1992.
  457.  
  458. ------------------------------------------------------------------------
  459.  
  460. -A10.) Good introductory literature about Neural Networks ?
  461.  
  462. 0.) The best (subjectively, of course -- please don't flame me):
  463.  
  464. Hecht-Nielsen, R. (1990). Neurocomputing. Addison Wesley.
  465. Comments: "A good book", "comprises a nice historical overview and a chapter
  466. about NN hardware. Well structured prose. Makes important concepts clear."
  467.  
  468. Hertz, J., Krogh, A., and Palmer, R. (1991). Introduction to the Theory of 
  469. Neural Computation. Addison-Wesley: Redwood City, California.
  470. ISBN 0-201-50395-6 (hardbound) and 0-201-51560-1 (paperbound)
  471. Comments: "My first impression is that this one is by far the best book on 
  472. the topic. And it's below $30 for the paperback."; "Well written, theoretical
  473. (but not overwhelming)"; It provides a good balance of model development, 
  474. computational algorithms, and applications. The mathematical derivations 
  475. are especially well done"; "Nice mathematical analysis on the mechanism of 
  476. different learning algorithms"; "It is NOT for mathematical beginner.
  477. If you don't have a good grasp of higher level math, this book can
  478. be really tough to get through."
  479.  
  480.  
  481. 1.) Books for the beginner:
  482.  
  483. Aleksander, I. and Morton, H. (1990). An Introduction to Neural Computing.
  484. Chapman and Hall. (ISBN 0-412-37780-2).
  485. Comments: "This book seems to be intended for the first year of university 
  486. education."
  487.  
  488. Beale, R. and Jackson, T. (1990). Neural Computing, an Introduction.
  489. Adam Hilger, IOP Publishing Ltd : Bristol. (ISBN 0-85274-262-2).
  490. Comments: "It's clearly written.  Lots of hints as to how to get the
  491. adaptive models covered to work (not always well explained in the
  492. original sources).  Consistent mathematical terminology.  Covers
  493. perceptrons, error-backpropagation, Kohonen self-org model, Hopfield
  494. type models, ART, and associative memories."
  495.  
  496. Dayhoff, J. E. (1990). Neural Network Architectures: An Introduction.
  497. Van Nostrand Reinhold: New York.
  498. Comments: "Like Wasserman's book, Dayhoff's book is also very easy to 
  499. understand".
  500.  
  501. McClelland, J. L. and Rumelhart, D. E. (1988).
  502. Explorations in Parallel Distributed Processing: Computational Models of 
  503. Cognition and Perception (software manual). The MIT Press.
  504. Comments: "Written in a tutorial style, and includes 2 diskettes of NN 
  505. simulation programs that can be compiled on MS-DOS or Unix (and they do 
  506. too !)"; "The programs are pretty reasonable as an introduction to some 
  507. of the things that NNs can do."; "There are *two* editions of this book.  
  508. One comes with disks for the IBM PC, the other comes with disks for the 
  509. Macintosh".
  510.  
  511. McCord Nelson, M. and Illingworth, W.T. (1990). A Practical Guide to Neural 
  512. Nets. Addison-Wesley Publishing Company, Inc. (ISBN 0-201-52376-0).
  513. Comments: "No formulas at all( ==> no good)"; "It does not have much 
  514. detailed model development (very few equations), but it does present many 
  515. areas of application.  It includes a chapter on current areas of research. 
  516. A variety of commercial applications is discussed in chapter 1.  It also 
  517. includes a program diskette with a fancy graphical interface (unlike the 
  518. PDP diskette)".
  519.  
  520. Orchard, G.A. & Phillips, W.A. (1991). Neural Computation: A
  521. Beginner's Guide. Lawrence Earlbaum Associates: London.
  522. Comments: "Short user-friendly introduction to the area, with a 
  523. non-technical flavour. Apparently accompanies a software package, but I 
  524. haven't seen that yet".
  525.  
  526. Wasserman, P. D. (1989). Neural Computing: Theory & Practice.
  527. Van Nostrand Reinhold: New York. (ISBN 0-442-20743-3)
  528. Comments: "Wasserman flatly enumerates some common architectures from an 
  529. engineer's perspective ('how it works') without ever addressing the underlying 
  530. fundamentals ('why it works') - important basic concepts such as clustering, 
  531. principal components or gradient descent are not treated.  It's also full of 
  532. errors, and unhelpful diagrams drawn with what appears to be PCB board layout 
  533. software from the '70s. For anyone who wants to do active research in the
  534. field I consider it quite inadequate"; "Okay, but too shallow"; "Quite
  535. easy to understand";
  536. "The best bedtime reading for Neural Networks.  I have given
  537. this book to numerous collegues who want to know NN basics, but who never
  538. plan to implement anything.  An excellent book to give your manager."
  539.  
  540.  
  541. 2.) The classics:
  542.  
  543. Kohonen, T. (1984). Self-organization and Associative Memory. Springer-Verlag:
  544. New York. (2nd Edition: 1988; 3rd edition: 1989). 
  545. Comments: "The section on Pattern mathematics is excellent."
  546.  
  547. Rumelhart, D. E. and McClelland, J. L. (1986). Parallel Distributed 
  548. Processing: Explorations in the Microstructure of Cognition (volumes 1 & 2). 
  549. The MIT Press. 
  550. Comments: "As a computer scientist I found the two Rumelhart and McClelland 
  551. books really heavy going and definitely not the sort of thing to read if you 
  552. are a beginner."; "It's quite readable, and affordable (about $65 for both 
  553. volumes)."; "THE Connectionist bible.".
  554.  
  555.  
  556. 3.) Introductory journal articles:
  557.  
  558. Hinton, G. E. (1989). Connectionist learning procedures.
  559. Artificial Intelligence, Vol. 40, pp. 185--234.
  560. Comments: "One of the better neural networks overview papers, although the
  561. distinction between network topology and learning algorithm is not always
  562. very clear.  Could very well be used as an introduction to neural networks."
  563.  
  564. Knight, K. (1990). Connectionist, Ideas and Algorithms. Communications of 
  565. the ACM. November 1990. Vol.33 nr.11, pp 59-74.
  566. Comments:"A good article, while it is for most people easy to find a copy of
  567. this journal."
  568.  
  569. Kohonen, T. (1988). An Introduction to Neural Computing. Neural Networks,
  570. vol. 1, no. 1. pp. 3-16.
  571. Comments: "A general review".
  572.  
  573.  
  574. 4.) Not-quite-so-introductory literature:
  575.  
  576. Anderson, J. A. and Rosenfeld, E. (Eds). (1988). Neurocomputing: 
  577. Foundations of Research. The MIT Press: Cambridge, MA.
  578. Comments: "An expensive book, but excellent for reference. It is a 
  579. collection of reprints of most of the major papers in the field."; 
  580.  
  581. Anderson, J. A., Pellionisz, A. and Rosenfeld, E. (Eds). (1990).
  582. Neurocomputing 2: Directions for Research. The MIT Press: Cambridge, MA.
  583. Comments: "The sequel to their well-known Neurocomputing book."
  584.  
  585. Caudill, M. and Butler, C. (1990). Naturally Intelligent Systems.
  586. MIT Press: Cambridge, Massachusetts. (ISBN 0-262-03156-6).
  587. Comments: "I guess one of the best books I read"; "May not be suited for 
  588. people who want to do some research in the area".
  589.  
  590. Khanna, T. (1990). Foundations of Neural Networks. Addison-Wesley: New York.
  591. Comments: "Not so bad (with a page of erroneous formulas (if I remember 
  592. well), and #hidden layers isn't well described)."; "Khanna's intention
  593. in writing his book with math analysis should be commended but he
  594. made several mistakes in the math part".
  595.  
  596. Levine, D. S. (1990). Introduction to Neural and Cognitive Modeling.
  597. Lawrence Erlbaum: Hillsdale, N.J.
  598. Comments: "Highly recommended".
  599.  
  600. Lippmann, R. P. (April 1987). An introduction to computing with neural nets.
  601. IEEE Acoustics, Speech, and Signal Processing Magazine. vol. 2,
  602. no. 4, pp 4-22.
  603. Comments: "Much acclaimed as an overview of neural networks, but rather 
  604. inaccurate on several points.  The categorization into binary and continuous-
  605. valued input neural networks is rather arbitrary, and may work confusing for
  606. the unexperienced reader.  Not all networks discussed are of equal importance."
  607.  
  608. Maren, A., Harston, C. and Pap, R., (1990). Handbook of Neural Computing 
  609. Applications.  Academic Press. ISBN: 0-12-471260-6. (451 pages)
  610. Comments: "They cover a broad area"; "Introductory with suggested
  611. applications implementation".
  612.  
  613. Pao, Y. H. (1989). Adaptive Pattern Recognition and Neural Networks
  614. Addison-Wesley Publishing Company, Inc. (ISBN 0-201-12584-6)
  615. Comments: "An excellent book that ties together classical approaches
  616. to pattern recognition with Neural Nets.  Most other NN books do not
  617. even mention conventional approaches."
  618.  
  619. Rumelhart, D. E., Hinton, G. E. and Williams, R. J. (1986). Learning
  620. representations by back-propagating errors. Nature, vol 323 (9 October),
  621. pp. 533-536.
  622. Comments: "Gives a very good potted explanation of backprop NN's. It gives 
  623. sufficient detail to write your own NN simulation."
  624.  
  625. Simpson, P. K. (1990). Artificial Neural Systems: Foundations, Paradigms,
  626. Applications and Implementations. Pergamon Press: New York.
  627. Comments: "Contains a very useful 37 page bibliography. A large number of
  628. paradigms are presented. On the negative side the book is very shallow. 
  629. Best used as a complement to other books".
  630.  
  631. Zeidenberg. M. (1990). Neural Networks in Artificial Intelligence.
  632. Ellis Horwood, Ltd., Chichester.
  633. Comments: "Gives the AI point of view".
  634.  
  635. Zornetzer, S. F., Davis, J. L. and Lau, C. (1990). An Introduction to 
  636. Neural and Electronic Networks. Academic Press. (ISBN 0-12-781881-2)
  637. Comments: "Covers quite a broad range of topics (collection of 
  638. articles/papers )."; "Provides a primer-like introduction and overview for
  639. a broad audience, and employs a strong interdisciplinary emphasis".
  640.  
  641. ------------------------------------------------------------------------
  642.  
  643. -A11.) Any journals and magazines about Neural Networks ?
  644.  
  645.  
  646. [to be added: comments on speed of reviewing and publishing,
  647.               whether they accept TeX format or ASCII by e-mail, etc.]
  648.  
  649. A. Dedicated Neural Network Journals:
  650. =====================================
  651.  
  652. Title:      Neural Networks
  653. Publish: Pergamon Press
  654. Address: Pergamon Journals Inc., Fairview Park, Elmsford, 
  655.      New York 10523, USA and Pergamon Journals Ltd.
  656.      Headington Hill Hall, Oxford OX3, 0BW, England
  657. Freq.:      6 issues/year (vol. 1 in 1988)
  658. Cost/Yr: Free with INNS membership ($45?), Individual $65, Institution $175
  659. ISSN #:     0893-6080
  660. Remark:  Official Journal of International Neural Network Society (INNS).
  661.      Contains Original Contributions, Invited Review Articles, Letters
  662.      to Editor, Invited Book Reviews, Editorials, Announcements and INNS
  663.      News, Software Surveys.  This is probably the most popular NN journal.
  664.      (Note: Remarks supplied by Mike Plonski "plonski@aero.org")
  665. -------
  666. Title:     Neural Computation
  667. Publish: MIT Press 
  668. Address: MIT Press Journals, 55 Hayward Street Cambridge, 
  669.      MA 02142-9949, USA, Phone: (617) 253-2889
  670. Freq.:     Quarterly (vol. 1 in 1989)
  671. Cost/Yr: Individual $45, Institution $90, Students $35; Add $9 Outside USA
  672. ISSN #:     0899-7667
  673. Remark:  Combination of Reviews (10,000 words), Views (4,000 words)
  674.      and Letters (2,000 words).  I have found this journal to be of
  675.      outstanding quality.
  676.      (Note: Remarks supplied by Mike Plonski "plonski@aero.org")
  677. -----
  678. Title:      IEEE Transaction on Neural Networks
  679. Publish: Institute of Electrical and Electronics Engineers (IEEE)
  680. Address: IEEE Service Cemter, 445 Hoes Lane, P.O. Box 1331, Piscataway, NJ,
  681.      08855-1331 USA. Tel: (201) 981-0060
  682. Cost/Yr: $10 for Members belonging to participating IEEE societies
  683. Freq.:   Quarterly (vol. 1 in March 1990)
  684. Remark:     Devoted to the science and technology of neural networks
  685.      which disclose significant  technical knowledge, exploratory
  686.      developments and applications of neural networks from biology to
  687.      software to hardware.  Emphasis is on artificial neural networks.
  688.      Specific aspects include self organizing systems, neurobiological
  689.      connections, network dynamics and architecture, speech recognition,
  690.      electronic and photonic implementation, robotics and controls.
  691.      Includes Letters concerning new research results.
  692.      (Note: Remarks are from journal announcement)
  693. -----
  694. Title:     International Journal of Neural Systems
  695. Publish: World Scientific Publishing
  696. Address: USA: World Scientific Publishing Co., 687 Hartwell Street, Teaneck, 
  697.      NJ 07666. Tel: (201) 837-8858; Eurpoe: World Scientific Publishing 
  698.      Co. Pte. Ltd., 73 Lynton Mead, Totteridge, London N20-8DH, England. 
  699.      Tel: (01) 4462461; Other: World Scientific Publishing Co. Pte. Ltd.,
  700.      Farrer Road, P.O. Box 128, Singapore 9128. Tel: 2786188
  701. Freq.:     Quarterly (Vol. 1 in 1990?)
  702. Cost/Yr: Individual $42, Institution $88 (plus $9-$17 for postage)
  703. ISSN #:     0129-0657 (IJNS)
  704. Remark:  The International Journal of Neural Systems is a quarterly journal
  705.      which covers information processing in natural and artificial neural
  706.      systems. It publishes original contributions on all aspects of this
  707.      broad subject which involves physics, biology, psychology, computer
  708.      science and engineering. Contributions include research papers, 
  709.      reviews and short communications.  The journal presents a fresh
  710.      undogmatic attitude towards this multidisciplinary field with the
  711.      aim to be a forum for novel ideas and improved understanding of 
  712.      collective and cooperative phenomena with computational capabilities.
  713.      (Note: Remarks supplied by B. Lautrup (editor),
  714.      "LAUTRUP%nbivax.nbi.dk@CUNYVM.CUNY.EDU" )
  715.          Review is reported to be very slow.
  716. ------
  717. Title:     Neural Network News
  718. Publish: AIWeek Inc.
  719. Address: Neural Network News, 2555 Cumberland Parkway, Suite 299, Atlanta, GA
  720.      30339 USA. Tel: (404) 434-2187
  721. Freq.:     Monthly (beginning September 1989)
  722. Cost/Yr: USA and Canada $249, Elsewhere $299
  723. Remark:     Commericial Newsletter
  724. ------
  725. Title:   Network: Computation in Neural Systems
  726. Publish: IOP Publishing Ltd
  727. Address: Europe: IOP Publishing Ltd, Techno House, Redcliffe Way, Bristol 
  728.      BS1 6NX, UK; IN USA: American Institute of Physics, Subscriber
  729.      Services 500 Sunnyside Blvd., Woodbury, NY  11797-2999
  730. Freq.:     Quarterly (1st issue 1990)
  731. Cost/Yr: USA: $180,  Europe: 110 pounds
  732. Remark:     Description: "a forum for integrating theoretical and experimental
  733.      findings across relevant interdisciplinary boundaries."  Contents:
  734.      Submitted articles reviewed by two technical referees  paper's 
  735.      interdisciplinary format and accessability."  Also Viewpoints and 
  736.      Reviews commissioned by the editors, abstracts (with reviews) of
  737.      articles published in other journals, and book reviews.
  738.      Comment: While the price discourages me (my comments are based upon
  739.      a free sample copy), I think that the journal succeeds very well.  The
  740.      highest density of interesting articles I have found in any journal. 
  741.      (Note: Remarks supplied by brandt kehoe "kehoe@csufres.CSUFresno.EDU")
  742. ------
  743. Title:   Connection Science: Journal of Neural Computing, 
  744.      Artificial Intelligence and Cognitive Research
  745. Publish: Carfax Publishing
  746. Address: Europe: Carfax Publishing Company, P. O. Box 25, Abingdon, 
  747.      Oxfordshire  OX14 3UE, UK.  USA: Carafax Publishing Company,
  748.      85 Ash Street, Hopkinton, MA 01748
  749. Freq.:   Quarterly (vol. 1 in 1989)
  750. Cost/Yr: Individual $82, Institution $184, Institution (U.K.) 74 pounds
  751. -----
  752. Title:      International Journal of Neural Networks
  753. Publish: Learned Information
  754. Freq.:      Quarterly (vol. 1 in 1989)
  755. Cost/Yr: 90 pounds
  756. ISSN #:     0954-9889
  757. Remark:  The journal contains articles, a conference report (at least the 
  758.      issue I have), news and a calendar.
  759.      (Note: remark provided by J.R.M. Smits "anjos@sci.kun.nl")
  760. -----
  761. Title:      Concepts in NeuroScience
  762. Publish: World Scientific Publishing
  763. Address: Same Address (?) as for International Journal of Neural Systems
  764. Freq.:      Twice per year (vol. 1 in 1989)
  765. Remark:     Mainly Review Articles(?)
  766.      (Note: remarks by Osamu Saito "saito@nttica.NTT.JP")
  767. -----
  768. Title:      International Journal of Neurocomputing
  769. Publish: ecn Neurocomputing GmbH
  770. Freq.:      Quarterly (vol. 1 in 1989)
  771. Remark:  Commercial journal, not the academic periodicals
  772.      (Note: remarks by Osamu Saito "saito@nttica.NTT.JP")
  773.          Review has been reported to be fast (less than 3 months)
  774. -----
  775. Title:     Neurocomputers
  776. Publish: Gallifrey Publishing
  777. Address: Gallifrey Publishing, PO Box 155, Vicksburg, Michigan, 49097, USA
  778.      Tel: (616) 649-3772
  779. Freq.     Monthly (1st issue 1987?)
  780. ISSN #:     0893-1585
  781. Editor:     Derek F. Stubbs
  782. Cost/Yr: $32 (USA, Canada), $48 (elsewhere)
  783. Remark:     I only have one exemplar so I cannot give you much detail about
  784.          the contents. It is a very small one (12 pages) but it has a lot
  785.          of (short) information in it about e.g. conferences, books,
  786.          (new) ideas etc.  I don't think it is very expensive but I'm not sure.
  787.      (Note: remark provided by J.R.M. Smits "anjos@sci.kun.nl")
  788. ------
  789. Title:   JNNS Newsletter (Newsletter of the Japan Neural Network Society)
  790. Publish: The Japan Neural Network Society
  791. Freq.:   Quarterly (vol. 1 in 1989)
  792. Remark:  (IN JAPANESE LANGUAGE) Official Newsletter of the Japan Neural 
  793.      Network Society(JNNS)
  794.      (Note: remarks by Osamu Saito "saito@nttica.NTT.JP")
  795. -------
  796. Title:     Neural Networks Today
  797. Remark:     I found this title in a bulletin board of october last year.
  798.          It was a message of Tim Pattison, timpatt@augean.OZ
  799.      (Note: remark provided by J.R.M. Smits "anjos@sci.kun.nl")
  800. -----
  801. Title:     Computer Simulations in Brain Science
  802. -----
  803. Title:   Internation Journal of Neuroscience
  804. -----
  805. Title:   Neural Network Computation 
  806. Remark:     Possibly the same as "Neural Computation"
  807. -----
  808. Title:   Neural Computing and Applications
  809. Freq.:   Quarterly
  810. Publish: Springer Verlag
  811. Cost/yr: 120 Pounds
  812. Remark:  Is the journal of the Neural Computing Applications Forum.
  813.          Publishes original research and other information
  814.          in the field of practical applications of neural computing.
  815.  
  816. B. NN Related Journals
  817. ======================
  818.  
  819. Title:      Complex Systems
  820. Publish: Complex Systems Publications
  821. Address: Complex Systems Publications, Inc., P.O. Box 6149, Champaign,
  822.      IL 61821-8149, USA
  823. Freq.:     6 times per year (1st volume is 1987)
  824. ISSN #:     0891-2513
  825. Cost/Yr: Individual $75, Institution $225
  826. Remark:  Journal COMPLEX SYSTEMS  devotes to the rapid publication of research
  827.      on the science, mathematics, and engineering of systems with simple
  828.      components but complex overall behavior. Send mail to 
  829.      "jcs@complex.ccsr.uiuc.edu" for additional info.
  830.      (Remark is from announcement on Net)
  831. -----
  832. Title:      Biological Cybernetics (Kybernetik)
  833. Publish: Springer Verlag
  834. Remark:  Monthly (vol. 1 in 1961)
  835. -----
  836. Title:      Various IEEE Transactions and Magazines
  837. Publish: IEEE
  838. Remark:  Primarily see IEEE Trans. on System, Man and Cybernetics; Various
  839.      Special Issues: April 1990 IEEE Control Systems Magazine.; May 1989
  840.      IEEE Trans. Circuits and Systems.; July 1988 IEEE Trans. Acoust. 
  841.      Speech Signal Process.
  842. -----
  843. Title:   The Journal of Experimental and Theoretical Artificial Intelligence
  844. Publish: Taylor & Francis, Ltd.
  845. Address: London, New York, Philadelphia
  846. Freq.:     ? (1st issue Jan 1989)
  847. Remark:     For submission information, please contact either of the editors:
  848.      Eric Dietrich                           Chris Fields
  849.      PACSS - Department of Philosophy        Box 30001/3CRL
  850.      SUNY Binghamton                         New Mexico State University
  851.      Binghamton, NY 13901                    Las Cruces, NM 88003-0001
  852.      dietrich@bingvaxu.cc.binghamton.edu     cfields@nmsu.edu
  853. -----
  854. Title:     The Behavioral and Brain Sciences
  855. Publish: Cambridge University Press
  856. Remark:     (Expensive as hell, I'm sure.)
  857.      This is a delightful journal that encourages discussion on a
  858.      variety of controversial topics.  I have especially enjoyed reading
  859.      some papers in there by Dana Ballard and Stephen Grossberg (separate
  860.      papers, not collaborations) a few years back.  They have a really neat
  861.      concept:  they get a paper, then invite a number of noted scientists
  862.      in the field to praise it or trash it.  They print these commentaries,
  863.      and give the author(s) a chance to make a rebuttal or concurrence.
  864.      Sometimes, as I'm sure you can imagine, things get pretty lively.  I'm
  865.      reasonably sure they are still at it--I think I saw them make a call
  866.      for reviewers a few months ago.  Their reviewers are called something
  867.      like Behavioral and Brain Associates, and I believe they have to be
  868.      nominated by current associates, and should be fairly well established
  869.      in the field.  That's probably more than I really know about it but
  870.      maybe if you post it someone who knows more about it will correct any
  871.      errors I have made.  The main thing is that I liked the articles I
  872.      read. (Note: remarks by Don Wunsch <dwunsch@blake.acs.washington.edu>)
  873. -----
  874. Title:      International Journal of Applied Intelligence
  875. Publish: Kluwer Academic Publishers
  876. Remark:  first issue in 1990(?)
  877. -----
  878. Title:      Bulletin of Mathematica Biology
  879. -----
  880. Title:   Intelligence
  881. -----
  882. Title:      Journal of Mathematical Biology
  883. -----
  884. Title:      Journal of Complex System
  885. -----
  886. Title:   AI Expert
  887. Publish: Miller Freeman Publishing Co., for subscription call ++415-267-7672.
  888. Remark:  Regularly includes ANN related articles, product
  889.          announcements, and application reports.
  890.          Listings of ANN programs are available on AI Expert affiliated BBS's
  891. -----
  892. Title:   International Journal of Modern Physics C
  893. Publish: World Scientific Publ. Co.
  894.          Farrer Rd. P.O.Box 128, Singapore 9128
  895.          or: 687 Hartwell St., Teaneck, N.J. 07666 U.S.A
  896.          or: 73 Lynton Mead, Totteridge, London N20 8DH, England
  897. Freq:    published quarterly
  898. Eds:     G. Fox, H. Herrmann and K. Kaneko
  899. -----
  900. Title:   Machine Learning
  901. Publish: Kluwer Academic Publishers
  902. Address: Kluwer Academic Publishers
  903.          P.O. Box 358
  904.          Accord Station
  905.          Hingham, MA 02018-0358 USA
  906. Freq.:     Monthly (8 issues per year; increasing to 12 in 1993)
  907. Cost/Yr: Individual $140 (1992); Member of AAAI or CSCSI $88
  908. Remark:     Description: Machine Learning is an international forum for 
  909.          research on computational approaches to learning.  The journal
  910.      publishes articles reporting substantive research results on a
  911.          wide range of learning methods applied to a variety of task
  912.          domains.  The ideal paper will make a theoretical contribution
  913.          supported by a computer implementation.
  914.          The journal has published many key papers in learning theory,
  915.          reinforcement learning, and decision tree methods.  Recently
  916.          it has published a special issue on connectionist approaches
  917.          to symbolic reasoning.  The journal regularly publishes
  918.          issues devoted to genetic algorithms as well.
  919. -----
  920. Title:   Journal of Physics A: Mathematical and General
  921. Publish: Inst. of Physics, Bristol
  922. Freq:    24 issues per year.
  923. Remark:  Statistical mechanics aspects of neural networks 
  924.          (mostly Hopfield models).
  925.  
  926. -----
  927. Title:   Physical Review A: Atomic, Molecular and Optical Physics
  928. Publish: The American Physical Society (Am. Inst. of Physics)
  929. Freq:    Monthly
  930. Remark:  Statistical mechanics of neural networks.
  931.  
  932.  
  933. C. Journals loosely related to NNs
  934. ==================================
  935.  
  936. JOURNAL OF COMPLEXITY
  937. (Must rank alongside Wolfram's Complex Systems)
  938.  
  939. IEEE ASSP Magazine
  940. (April 1987 had the Lippmann intro. which everyone likes to cite)
  941.  
  942. ARTIFICIAL INTELLIGENCE
  943. (Vol 40, September 1989 had the survey paper by Hinton)
  944.  
  945. COGNITIVE SCIENCE
  946. (the Boltzmann machine paper by Ackley et al appeared here in Vol 9, 1983)
  947.  
  948. COGNITION
  949. (Vol 28, March 1988 contained the Fodor and Pylyshyn critique of connectionism)
  950.  
  951. COGNITIVE PSYCHOLOGY
  952. (no comment!)
  953.  
  954. JOURNAL OF MATHEMATICAL PSYCHOLOGY
  955. (several good book reviews)
  956.  
  957. ------------------------------------------------------------------------
  958.  
  959. -A12.) The most important conferences concerned with Neural Networks ?
  960.  
  961. [preliminary]
  962. [to be added: has taken place how often yet; most emphasized topics;
  963.  where to get proceedings ]
  964.  
  965. A. Dedicated Neural Network Conferences:
  966.    1. Neural Information Processing Systems (NIPS)
  967.       Annually in Denver, Colorado; late November or early December
  968.    2. International Joint Conference on Neural Networks (IJCNN)
  969.       co-sponsored by INNS and IEEE
  970.    3. Annual Conference on Neural Networks (ACNN)
  971.    4. International Conference on Artificial Neural Networks (ICANN)
  972.       Annually in Europe(?), 1992 in Brighton
  973.       Major conference of European Neur. Netw. Soc. (ENNS)
  974.  
  975. B. Other Conferences
  976.    1. International Joint Conference on Artificial Intelligence (IJCAI)
  977.    2. Intern. Conf. on Acustics, Speech and Signal Processing (ICASSP)
  978.    3. Annual Conference of the Cognitive Science Society
  979.    4. [Vision Conferences?]
  980.  
  981. C. Pointers to Conferences
  982.    1. The journal "Neural Networks" has a long list of conferences, 
  983.       workshops and meetings in each issue. 
  984.       This is quite interdisciplinary.
  985.    2. There is a regular posting on comp.ai.neural-nets from Paultje Bakker:
  986.       "Upcoming Neural Network Conferences", which lists names, dates,
  987.       locations, contacts, and deadlines.
  988.  
  989. ------------------------------------------------------------------------
  990.  
  991. -A13.) Neural Network Associations ?
  992.  
  993. [Is this data still correct ?  Who will send me some update ?]
  994.  
  995. 1. International Neural Network Society (INNS).
  996.    INNS membership includes subscription to "Neural Networks",
  997.    the official journal of the society.
  998.    Membership is $55 for non-students and $45 for students per year.
  999.    Address: INNS Membership, P.O. Box 491166, Ft. Washington, MD 20749.
  1000.  
  1001. 2. International Student Society for Neural Networks (ISSNNets).
  1002.    Membership is $5 per year.
  1003.    Address:  ISSNNet, Inc., P.O. Box 15661, Boston, MA 02215  USA
  1004.  
  1005. 3. Women In Neural Network Research and technology (WINNERS).
  1006.    Address: WINNERS, c/o Judith Dayhoff, 11141 Georgia Ave., Suite 206, 
  1007.             Wheaton, MD 20902.  Telephone: 301-933-9000.
  1008.  
  1009. 4. European Neural Network Society (ENNS)
  1010.  
  1011. 5. Japanese Neural Network Society (JNNS)
  1012.    Address: Japanese Neural Network Society
  1013.         Department of Engineering, Tamagawa University,
  1014.         6-1-1, Tamagawa Gakuen, Machida City, Tokyo,
  1015.         194 JAPAN
  1016.         Phone: +81 427 28 3457,    Fax: +81 427 28 3597
  1017.  
  1018. 6. Association des Connexionnistes en THese (ACTH)
  1019.    (the French Student Association for Neural Networks)
  1020.    Membership is 100 FF per year
  1021.    Activities : newsletter, conference (every year), list of members...
  1022.    Address : ACTH - Le Castelnau R2
  1023.              23 avenue de la Galline
  1024.              34170 Castelnau-le-Lez
  1025.              FRANCE
  1026.    Contact : jdmuller@vnet.ibm.com
  1027.  
  1028. 7. Neurosciences et Sciences de l'Ingenieur (NSI)
  1029.    Biology & Computer Science
  1030.    Activity : conference (every year)
  1031.    Address : NSI - TIRF / INPG
  1032.              46 avenue Felix Viallet
  1033.              38031 Grenoble Cedex
  1034.              FRANCE
  1035.  
  1036.  
  1037. ------------------------------------------------------------------------
  1038.  
  1039. -A14.) Other sources of information about NNs ?
  1040.  
  1041. 1. Neuron Digest
  1042.    Internet Mailing List.  From the welcome blurb:
  1043.      "Neuron-Digest is a list (in digest form) dealing with all aspects
  1044.       of neural networks (and any type of network or neuromorphic system)"
  1045.    Moderated by Peter Marvit.
  1046.    To subscribe, send email to neuron-request@cattell.psych.upenn.edu
  1047.    comp.ai.neural-net readers also find the messages in that newsgroup
  1048.    in the form of digests.
  1049.  
  1050. 2. Usenet groups comp.ai.neural-nets (Oha !  :-> )
  1051.              and comp.theory.self-org-sys
  1052.    There is a periodic posting on comp.ai.neural-nets sent by
  1053.    srctran@world.std.com (Gregory Aharonian) about Neural Network 
  1054.    patents.
  1055.  
  1056. 3. Central Neural System Electronic Bulletin Board
  1057.    Modem: 509-627-6CNS; Sysop: Wesley R. Elsberry;
  1058.    P.O. Box 1187, Richland, WA 99352; welsberr@sandbox.kenn.wa.us
  1059.    Available thrugh FidoNet, RBBS-Net, and other EchoMail compatible
  1060.    bulletin board systems as NEURAL_NET echo.
  1061.  
  1062. 4. USENET newsgroup comp.org.issnnet
  1063.    Forum for discussion of academic/student-related issues in NNs, as
  1064.    well as information on ISSNNet (see A13) and its activities.
  1065.  
  1066.  
  1067. ------------------------------------------------------------------------
  1068.  
  1069.  
  1070.  
  1071. That's all folks.
  1072.  
  1073. ========================================================================
  1074.  
  1075. Acknowledgements: Thanks to all the people who helped to get the stuff
  1076.                   above into the posting. I cannot name them all, because
  1077.                   I would make far too many errors then. :->
  1078.  
  1079.                   No ?  Not good ?  You want individual credit ?
  1080.                   OK, OK. I'll try to name them all. But: no guarantee....
  1081.  
  1082.   THANKS FOR HELP TO:
  1083. (in alphabetical order of email adresses, I hope)
  1084.  
  1085. Allen Bonde <ab04@harvey.gte.com>
  1086. Alexander Linden <al@jargon.gmd.de>
  1087. S.Taimi Ames <ames@reed.edu>
  1088. anderson@atc.boeing.com
  1089. Kim L. Blackwell <avrama@helix.nih.gov>
  1090. Paul Bakker <bakker@cs.uq.oz.au>
  1091. Yijun Cai <caiy@mercury.cs.uregina.ca>
  1092. L. Leon Campbell <campbell@brahms.udel.edu>
  1093. David DeMers <demers@cs.ucsd.edu>
  1094. Denni Rognvaldsson <denni@thep.lu.se>
  1095. Wesley R. Elsberry <elsberry@cse.uta.edu>
  1096. Frank Schnorrenberg <fs0997@easttexas.tamu.edu>
  1097. Gary Lawrence Murphy <garym@maya.isis.org>
  1098. gaudiano@park.bu.edu
  1099. Glen Clark <opto!glen@gatech.edu>
  1100. guy@minster.york.ac.uk
  1101. Jean-Denis Muller <jdmuller@vnet.ibm.com>
  1102. Jonathan Kamens <jik@MIT.Edu>
  1103. Jon Gunnar Solheim <jon@kongle.idt.unit.no>
  1104. Josef Nelissen <jonas@beor.informatik.rwth-aachen.de>
  1105. Kjetil.Noervaag@idt.unit.no
  1106. Luke Koops <koops@gaul.csd.uwo.ca>
  1107. William Mackeown <mackeown@compsci.bristol.ac.uk>
  1108. Peter Marvit <marvit@cattell.psych.upenn.edu>
  1109. masud@worldbank.org
  1110. Yoshiro Miyata <miyata@sccs.chukyo-u.ac.jp>
  1111. Jyrki Alakuijala <more@ee.oulu.fi>
  1112. mrs@kithrup.com
  1113. Maciek Sitnik <msitnik@plearn.edu.pl>
  1114. R. Steven Rainwater <ncc@ncc.jvnc.net>
  1115. Michael Plonski <plonski@aero.org>
  1116. [myself]
  1117. Richard Andrew Miles Outerbridge <ramo@uvphys.phys.uvic.ca>
  1118. Richard Cornelius <richc@rsf.atd.ucar.edu>
  1119. Rob Cunningham <rkc@xn.ll.mit.edu>
  1120. Osamu Saito <saito@nttica.ntt.jp>
  1121. Ted Stockwell <ted@aps1.spa.umn.edu>
  1122. Thomas G. Dietterich <tgd@research.cs.orst.edu>
  1123. Thomas.Vogel@cl.cam.ac.uk
  1124. Ulrich Wendl <uli@unido.informatik.uni-dortmund.de>
  1125. Matthew P Wiener <weemba@sagi.wistar.upenn.edu>
  1126.  
  1127. Bye
  1128.  
  1129.   Lutz
  1130.  
  1131. -- 
  1132. Lutz Prechelt   (email: prechelt@ira.uka.de)            | Whenever you 
  1133. Institut fuer Programmstrukturen und Datenorganisation  | complicate things,
  1134. Universitaet Karlsruhe;  D-7500 Karlsruhe 1;  Germany   | they get
  1135. (Voice: ++49/721/608-4068, FAX: ++49/721/694092)        | less simple.
  1136.  
  1137.  
  1138.