home *** CD-ROM | disk | FTP | other *** search
/ Amiga Plus 1995 #2 / Amiga Plus CD - 1995 - No. 2.iso / internet / faq / englisch / comp.ai.neural-nets < prev    next >
Encoding:
Text File  |  1995-04-11  |  151.4 KB  |  3,086 lines

  1. Archive-name: neural-net-faq
  2. Last-modified: 1995/02/23
  3. URL: http://wwwipd.ira.uka.de/~prechelt/FAQ/neural-net-faq.html
  4. Maintainer: prechelt@ira.uka.de (Lutz Prechelt)
  5.  
  6.  
  7.   ------------------------------------------------------------------------
  8.         Additions, corrections, or improvements are always welcome.
  9.         Anybody who is willing to contribute any information,
  10.         please email me; if it is relevant, I will incorporate it.
  11.  
  12.         The monthly posting departs at the 28th of every month.
  13.   ------------------------------------------------------------------------
  14.  
  15.  
  16. This is a monthly posting to the Usenet newsgroup comp.ai.neural-nets (and
  17. comp.answers, where it should be findable at ANY time). Its purpose is to provide
  18. basic information for individuals who are new to the field of neural networks or are
  19. just beginning to read this group. It shall help to avoid lengthy discussion of questions
  20. that usually arise for beginners of one or the other kind. 
  21.  
  22.    SO, PLEASE, SEARCH THIS POSTING FIRST IF YOU HAVE A QUESTION
  23.                            and
  24.    DON'T POST ANSWERS TO FAQs: POINT THE ASKER TO THIS POSTING
  25.  
  26. This posting is archived in the periodic posting archive on host rtfm.mit.edu (and on
  27. some other hosts as well). Look in the anonymous ftp directory 
  28. "/pub/usenet/news.answers", the filename is as given in the 'Archive-name:' header
  29. above. If you do not have anonymous ftp access, you can access the archives by mail
  30. server as well. Send an E-mail message to mail-server@rtfm.mit.edu with "help"
  31. and "index" in the body on separate lines for more information.
  32.  
  33. For those of you who read this posting anywhere other than in comp.ai.neural-nets:
  34. To read comp.ai.neural-nets (or post articles to it) you need Usenet News access. Try
  35. the commands, 'xrn', 'rn', 'nn', or 'trn' on your Unix machine, 'news' on your VMS
  36. machine, or ask a local guru.
  37.  
  38. This monthly posting is also available as a hypertext document in WWW (World
  39. Wide Web) under the URL 
  40. "http://wwwipd.ira.uka.de/~prechelt/FAQ/neural-net-faq.html"
  41.  
  42. The monthly posting is not meant to discuss any topic exhaustively.
  43.  
  44. Disclaimer: 
  45.    This posting is provided 'as is'.
  46.    No warranty whatsoever is expressed or implied, 
  47.    in particular, no warranty that the information contained herein
  48.    is correct or useful in any way, although both is intended.
  49.  
  50. To find the answer of question number 'x', search for the string
  51. "x. A:" (so the answer to question 12 is at   12. A:  )
  52.  
  53.  
  54. And now, in the end, we begin: 
  55.  
  56. ========== Questions ========== 
  57. ********************************
  58.  
  59.  1. What is this newsgroup for? How shall it be used? 
  60.  2. What is a neural network (NN)? 
  61.  3. What can you do with a Neural Network and what not? 
  62.  4. Who is concerned with Neural Networks? 
  63.  
  64.  5. What does 'backprop' mean? What is 'overfitting'? 
  65.  6. Why use a bias input? Why activation functions? 
  66.  7. How many hidden units should I use? 
  67.  8. How many learning methods for NNs exist? Which? 
  68.  9. What about Genetic Algorithms? 
  69.  10. What about Fuzzy Logic? 
  70.  11. How are NNs related to statistical methods? 
  71.  
  72.  12. Good introductory literature about Neural Networks? 
  73.  13. Any journals and magazines about Neural Networks? 
  74.  14. The most important conferences concerned with Neural Networks? 
  75.  15. Neural Network Associations? 
  76.  16. Other sources of information about NNs? 
  77.  
  78.  17. Freely available software packages for NN simulation? 
  79.  18. Commercial software packages for NN simulation? 
  80.  19. Neural Network hardware? 
  81.  
  82.  20. Databases for experimentation with NNs? 
  83.  
  84. ========== Answers ========== 
  85. ******************************
  86.  
  87.  1. A: What is this newsgroup for? How shall it be used?
  88.  =======================================================
  89.  
  90.    The newsgroup comp.ai.neural-nets is inteded as a forum for people who want
  91.    to use or explore the capabilities of Artificial Neural Networks or
  92.    Neural-Network-like structures.
  93.  
  94.    There should be the following types of articles in this newsgroup:
  95.  
  96.     1. Requests
  97.     +++++++++++
  98.  
  99.       Requests are articles of the form "I am looking for X" where
  100.       X is something public like a book, an article, a piece of software. The
  101.       most important about such a request is to be as specific as possible!
  102.  
  103.       If multiple different answers can be expected, the person making the
  104.       request should prepare to make a summary of the answers he/she got
  105.       and announce to do so with a phrase like "Please reply by
  106.       email, I'll summarize to the group" at the end of the
  107.       posting.
  108.  
  109.       The Subject line of the posting should then be something like 
  110.       "Request: X" 
  111.  
  112.     2. Questions
  113.     ++++++++++++
  114.  
  115.       As opposed to requests, questions ask for a larger piece of information
  116.       or a more or less detailed explanation of something. To avoid lots of
  117.       redundant traffic it is important that the poster provides with the
  118.       question all information s/he already has about the subject asked and
  119.       state the actual question as precise and narrow as possible. The poster
  120.       should prepare to make a summary of the answers s/he got and
  121.       announce to do so with a phrase like "Please reply by
  122.       email, I'll summarize to the group" at the end of the
  123.       posting.
  124.  
  125.       The Subject line of the posting should be something like 
  126.       "Question: this-and-that" or have the form of a question
  127.       (i.e., end with a question mark) 
  128.  
  129.     3. Answers
  130.     ++++++++++
  131.  
  132.       These are reactions to questions or requests. As a rule of thumb articles
  133.       of type "answer" should be rare. Ideally, in most cases either the
  134.       answer is too specific to be of general interest (and should thus be
  135.       e-mailed to the poster) or a summary was announced with the question
  136.       or request (and answers should thus be e-mailed to the poster).
  137.  
  138.       The subject lines of answers are automatically adjusted by the news
  139.       software. Note that sometimes longer threads of discussion evolve
  140.       from an answer to a question or request. In this case posters should
  141.       change the subject line suitably as soon as the topic goes too far away
  142.       from the one announced in the original subject line. You can still carry
  143.       along the old subject in parentheses in the form "Subject: new
  144.       subject (was: old subject)" 
  145.  
  146.     4. Summaries
  147.     ++++++++++++
  148.  
  149.       In all cases of requests or questions the answers for which can be
  150.       assumed to be of some general interest, the poster of the request or
  151.       question shall summarize the answers he/she received. Such a summary
  152.       should be announced in the original posting of the question or request
  153.       with a phrase like "Please answer by email, I'll
  154.       summarize"
  155.  
  156.       In such a case, people who answer to a question should NOT post their
  157.       answer to the newsgroup but instead mail them to the poster of the
  158.       question who collects and reviews them. After about 5 to 20 days after
  159.       the original posting, its poster should make the summary of answers
  160.       and post it to the newsgroup.
  161.  
  162.       Some care should be invested into a summary: 
  163.        o simple concatenation of all the answers is not enough: instead,
  164.          redundancies, irrelevancies, verbosities, and errors should be
  165.          filtered out (as good as possible) 
  166.        o the answers should be separated clearly 
  167.        o the contributors of the individual answers should be identifiable
  168.          (unless they requested to remain anonymous [yes, that happens])
  169.        o the summary should start with the "quintessence" of the
  170.          answers, as seen by the original poster 
  171.        o A summary should, when posted, clearly be indicated to be one
  172.          by giving it a Subject line starting with "SUMMARY:" 
  173.       Note that a good summary is pure gold for the rest of the newsgroup
  174.       community, so summary work will be most appreciated by all of us.
  175.       Good summaries are more valuable than any moderator ! :-) 
  176.  
  177.     5. Announcements
  178.     ++++++++++++++++
  179.  
  180.       Some articles never need any public reaction. These are called
  181.       announcements (for instance for a workshop, conference or the
  182.       availability of some technical report or software system).
  183.  
  184.       Announcements should be clearly indicated to be such by giving them a
  185.       subject line of the form "Announcement: this-and-that" 
  186.  
  187.     6. Reports
  188.     ++++++++++
  189.  
  190.       Sometimes people spontaneously want to report something to the
  191.       newsgroup. This might be special experiences with some software,
  192.       results of own experiments or conceptual work, or especially
  193.       interesting information from somewhere else.
  194.  
  195.       Reports should be clearly indicated to be such by giving them a subject
  196.       line of the form "Report: this-and-that" 
  197.  
  198.     7. Discussions
  199.     ++++++++++++++
  200.  
  201.       An especially valuable possibility of Usenet is of course that of
  202.       discussing a certain topic with hundreds of potential participants. All
  203.       traffic in the newsgroup that can not be subsumed under one of the
  204.       above categories should belong to a discussion.
  205.  
  206.       If somebody explicitly wants to start a discussion, he/she can do so by
  207.       giving the posting a subject line of the form "Subject:
  208.       Discussion: this-and-that"
  209.  
  210.       It is quite difficult to keep a discussion from drifting into chaos, but,
  211.       unfortunately, as many many other newsgroups show there seems to be
  212.       no secure way to avoid this. On the other hand, comp.ai.neural-nets has
  213.       not had many problems with this effect in the past, so let's just go and
  214.       hope... 
  215.  
  216.    ------------------------------------------------------------------------
  217.  
  218.  2. A: What is a neural network (NN)?
  219.  ====================================
  220.  
  221.    First of all, when we are talking about a neural network, we *should* usually
  222.    better say "artificial neural network" (ANN), because that is what we mean
  223.    most of the time. Biological neural networks are much more complicated in
  224.    their elementary structures than the mathematical models we use for ANNs.
  225.  
  226.    A vague description is as follows:
  227.  
  228.    An ANN is a network of many very simple processors ("units"), each possibly
  229.    having a (small amount of) local memory. The units are connected by
  230.    unidirectional communication channels ("connections"), which carry numeric
  231.    (as opposed to symbolic) data. The units operate only on their local data and on
  232.    the inputs they receive via the connections.
  233.  
  234.    The design motivation is what distinguishes neural networks from other
  235.    mathematical techniques:
  236.  
  237.    A neural network is a processing device, either an algorithm, or actual
  238.    hardware, whose design was motivated by the design and functioning of
  239.    human brains and components thereof.
  240.  
  241.    Most neural networks have some sort of "training" rule whereby the weights
  242.    of connections are adjusted on the basis of presented patterns. In other words,
  243.    neural networks "learn" from examples, just like children learn to recognize
  244.    dogs from examples of dogs, and exhibit some structural capability for
  245.    generalization.
  246.  
  247.    Neural networks normally have great potential for parallelism, since the
  248.    computations of the components are independent of each other. 
  249.  
  250.    ------------------------------------------------------------------------
  251.  
  252.  3. A: What can you do with a Neural Network and what not?
  253.  =========================================================
  254.  
  255.    In principle, NNs can compute any computable function, i.e. they can do
  256.    everything a normal digital computer can do. Especially anything that can be
  257.    represented as a mapping between vector spaces can be approximated to
  258.    arbitrary precision by feedforward NNs (which is the most often used type).
  259.  
  260.    In practice, NNs are especially useful for mapping problems which are
  261.    tolerant of some errors, have lots of example data available, but to which hard
  262.    and fast rules can not easily be applied. NNs are, at least today, difficult to
  263.    apply successfully to problems that concern manipulation of symbols and
  264.    memory. 
  265.  
  266.    ------------------------------------------------------------------------
  267.  
  268.  4. A: Who is concerned with Neural Networks?
  269.  ============================================
  270.  
  271.    Neural Networks are interesting for quite a lot of very dissimilar people: 
  272.     o Computer scientists want to find out about the properties of
  273.       non-symbolic information processing with neural nets and about
  274.       learning systems in general. 
  275.     o Engineers of many kinds want to exploit the capabilities of neural
  276.       networks on many areas (e.g. signal processing) to solve their
  277.       application problems. 
  278.     o Cognitive scientists view neural networks as a possible apparatus to
  279.       describe models of thinking and conscience (High-level brain
  280.       function). 
  281.     o Neuro-physiologists use neural networks to describe and explore
  282.       medium-level brain function (e.g. memory, sensory system, motorics). 
  283.     o Physicists use neural networks to model phenomena in statistical
  284.       mechanics and for a lot of other tasks. 
  285.     o Biologists use Neural Networks to interpret nucleotide sequences. 
  286.     o Philosophers and some other people may also be interested in Neural
  287.       Networks for various reasons. 
  288.  
  289.    ------------------------------------------------------------------------
  290.  
  291.  5. A: What does 'backprop' mean? What is 'overfitting'? 
  292.  ========================================================
  293.  
  294.    'Backprop' is an abbreviation for 'backpropagation of error' which is the most
  295.    widely used learning method for neural networks today. Although it has many
  296.    disadvantages, which could be summarized in the sentence "You are almost
  297.    not knowing what you are actually doing when using backpropagation" :-) it
  298.    has pretty much success on practical applications and is relatively easy to
  299.    apply.
  300.  
  301.    It is for the training of layered (i.e., nodes are grouped in layers) feedforward
  302.    (i.e., the arcs joining nodes are unidirectional, and there are no cycles) nets
  303.    (often called "multi layer perceptrons").
  304.  
  305.    Back-propagation needs a teacher that knows the correct output for any input
  306.    ("supervised learning") and uses gradient descent on the error (as provided by
  307.    the teacher) to train the weights. The activation function is (usually) a
  308.    sigmoidal (i.e., bounded above and below, but differentiable) function of a
  309.    weighted sum of the nodes inputs.
  310.  
  311.    The use of a gradient descent algorithm to train its weights makes it slow to
  312.    train; but being a feedforward algorithm, it is quite rapid during the recall
  313.    phase.
  314.  
  315.    Literature:
  316.       Rumelhart, D. E. and McClelland, J. L. (1986): Parallel Distributed
  317.       Processing: Explorations in the Microstructure of Cognition (volume 1,
  318.       pp 318-362). The MIT Press. 
  319.  
  320.    (this is the classic one) or one of the dozens of other books or articles on
  321.    backpropagation (see also answer "books").
  322.  
  323.    'Overfitting' (often also called 'overtraining' or 'overlearning') is the
  324.    phenomenon that in most cases a network gets worse instead of better after a
  325.    certain point during training when it is trained to as low errors as possible.
  326.    This is because such long training may make the network 'memorize' the
  327.    training patterns, including all of their peculiarities. However, one is usually
  328.    interested in the generalization of the network, i.e., the error it exhibits on
  329.    examples NOT seen during training. Learning the peculiarities of the training
  330.    set makes the generalization worse. The network should only learn the general
  331.    structure of the examples. 
  332.  
  333.    There are various methods to fight overfitting. The two most important classes
  334.    of such methods are regularization methods (such as weight decay) and early
  335.    stopping. Regularization methods try to limit the complexity of the network
  336.    such that it is unable to learn peculiarities. Early stopping aims at stopping the
  337.    training at the point of optimal generalization. A description of the early
  338.    stopping method can for instance be found in section 3.3 of 
  339.    /pub/papers/techreports/1994-21.ps.Z on ftp.ira.uka.de (anonymous ftp). 
  340.  
  341.    ------------------------------------------------------------------------
  342.  
  343.  6. A: Why use a bias input? Why activation functions? 
  344.  ======================================================
  345.  
  346.    One way of looking at the need for bias inputs is that the inputs to each unit in
  347.    the net define an N-dimensional space, and the unit draws a hyperplane
  348.    through that space, producing an "on" output on one side and an "off" output
  349.    on the other. (With sigmoid units the plane will not be sharp -- there will be
  350.    some gray area of intermediate values near the separating plane -- but ignore
  351.    this for now.)
  352.    The weights determine where this hyperplane is in the input space. Without a
  353.    bias input, this separating plane is constrained to pass through the origin of the
  354.    hyperspace defined by the inputs. For some problems that's OK, but in many
  355.    problems the plane would be much more useful somewhere else. If you have
  356.    many units in a layer, they share the same input space and without bias would
  357.    ALL be constrained to pass through the origin. 
  358.  
  359.    Activation functions are needed to introduce nonlinearity into the network.
  360.    Without nonlinearity, hidden units would not make nets more powerful than
  361.    just plain perceptrons (which do not have any hidden units, just input and
  362.    output units). The reason is that a composition of linear functions is again a
  363.    linear function. However, it is just the nonlinearity (i.e, the capability to
  364.    represent nonlinear functions) that makes multilayer networks so powerful.
  365.    Almost any nonlinear function does the job, although for backpropagation
  366.    learning it must be differentiable and it helps if the function is bounded; the
  367.    popular sigmoidal functions and gaussian functions are the most common
  368.    choices.
  369.  
  370.    ------------------------------------------------------------------------
  371.  
  372.  7. A: How many hidden units should I use? 
  373.  ==========================================
  374.  
  375.    There is no way to determine a good network topology just from the number
  376.    of inputs and outputs. It depends critically on the number of training examples
  377.    and the complexity of the classification you are trying to learn. There are
  378.    problems with one input and one output that require millions of hidden units,
  379.    and problems with a million inputs and a million outputs that require only one
  380.    hidden unit, or none at all.
  381.    Some books and articles offer "rules of thumb" for choosing a topopology --
  382.    Ninputs plus Noutputs dividied by two, maybe with a square root in there
  383.    somewhere -- but such rules are total garbage. Other rules relate to the
  384.    number of examples available: Use at most so many hidden units that the
  385.    number of weights in the network times 10 is smaller than the number of
  386.    examples. Such rules are only concerned with overfitting and are unreliable as
  387.    well. 
  388.  
  389.    ------------------------------------------------------------------------
  390.  
  391.  8. A: How many learning methods for NNs exist? Which?
  392.  =====================================================
  393.  
  394.    There are many many learning methods for NNs by now. Nobody knows
  395.    exactly how many. New ones (at least variations of existing ones) are invented
  396.    every week. Below is a collection of some of the most well known methods;
  397.    not claiming to be complete.
  398.  
  399.    The main categorization of these methods is the distinction of supervised from
  400.    unsupervised learning:
  401.  
  402.    In supervised learning, there is a "teacher" who in the learning phase "tells"
  403.    the net how well it performs ("reinforcement learning") or what the correct
  404.    behavior would have been ("fully supervised learning").
  405.  
  406.    In unsupervised learning the net is autonomous: it just looks at the data it is
  407.    presented with, finds out about some of the properties of the data set and
  408.    learns to reflect these properties in its output. What exactly these properties
  409.    are, that the network can learn to recognise, depends on the particular network
  410.    model and learning method.
  411.  
  412.    Many of these learning methods are closely connected with a certain (class of)
  413.    network topology.
  414.  
  415.    Now here is the list, just giving some names:
  416.  
  417.    1. UNSUPERVISED LEARNING (i.e. without a "teacher"):
  418.         1). Feedback Nets:
  419.            a). Additive Grossberg (AG)
  420.            b). Shunting Grossberg (SG)
  421.            c). Binary Adaptive Resonance Theory (ART1)
  422.            d). Analog Adaptive Resonance Theory (ART2, ART2a)
  423.            e). Discrete Hopfield (DH)
  424.            f). Continuous Hopfield (CH)
  425.            g). Discrete Bidirectional Associative Memory (BAM)
  426.            h). Temporal Associative Memory (TAM)
  427.            i). Adaptive Bidirectional Associative Memory (ABAM)
  428.            j). Kohonen Self-organizing Map/Topology-preserving map (SOM/TPM)
  429.            k). Competitive learning
  430.         2). Feedforward-only Nets:
  431.            a). Learning Matrix (LM)
  432.            b). Driver-Reinforcement Learning (DR)
  433.            c). Linear Associative Memory (LAM)
  434.            d). Optimal Linear Associative Memory (OLAM)
  435.            e). Sparse Distributed Associative Memory (SDM)
  436.            f). Fuzzy Associative Memory (FAM)
  437.            g). Counterprogation (CPN)
  438.  
  439.    2. SUPERVISED LEARNING (i.e. with a "teacher"):
  440.         1). Feedback Nets:
  441.            a). Brain-State-in-a-Box (BSB)
  442.            b). Fuzzy Congitive Map (FCM)
  443.            c). Boltzmann Machine (BM)
  444.            d). Mean Field Annealing (MFT)
  445.            e). Recurrent Cascade Correlation (RCC)
  446.            f). Learning Vector Quantization (LVQ)
  447.            g). Backpropagation through time (BPTT)
  448.            h). Real-time recurrent learning (RTRL)
  449.            i). Recurrent Extended Kalman Filter (EKF)
  450.         2). Feedforward-only Nets:
  451.            a). Perceptron
  452.            b). Adaline, Madaline
  453.            c). Backpropagation (BP)
  454.            d). Cauchy Machine (CM)
  455.            e). Adaptive Heuristic Critic (AHC)
  456.            f). Time Delay Neural Network (TDNN)
  457.            g). Associative Reward Penalty (ARP)
  458.            h). Avalanche Matched Filter (AMF)
  459.            i). Backpercolation (Perc)
  460.            j). Artmap
  461.            k). Adaptive Logic Network (ALN)
  462.            l). Cascade Correlation (CasCor)
  463.            m). Extended Kalman Filter(EKF)
  464.  
  465.    ------------------------------------------------------------------------
  466.  
  467.  9. A: What about Genetic Algorithms?
  468.  ====================================
  469.  
  470.    There are a number of definitions of GA (Genetic Algorithm). A possible one
  471.    is
  472.  
  473.      A GA is an optimization program
  474.      that starts with 
  475.      a population of encoded procedures,       (Creation of Life :-> )
  476.      mutates them stochastically,              (Get cancer or so :-> )
  477.      and uses a selection process              (Darwinism)
  478.      to prefer the mutants with high fitness
  479.      and perhaps a recombination process       (Make babies :-> )
  480.      to combine properties of (preferably) the succesful mutants.
  481.  
  482.    Genetic Algorithms are just a special case of the more general idea of
  483.    ``evolutionary computation''. There is a newsgroup that is dedicated to the
  484.    field of evolutionary computation called comp.ai.genetic. It has a detailed
  485.    FAQ posting which, for instance, explains the terms "Genetic Algorithm",
  486.    "Evolutionary Programming", "Evolution Strategy", "Classifier System", and
  487.    "Genetic Programming". That FAQ also contains lots of pointers to relevant
  488.    literature, software, other sources of information, et cetera et cetera. Please see
  489.    the comp.ai.genetic FAQ for further information. 
  490.  
  491.    ------------------------------------------------------------------------
  492.  
  493.  10. A: What about Fuzzy Logic?
  494.  ==============================
  495.  
  496.    Fuzzy Logic is an area of research based on the work of L.A. Zadeh. It is a
  497.    departure from classical two-valued sets and logic, that uses "soft" linguistic
  498.    (e.g. large, hot, tall) system variables and a continuous range of truth values in
  499.    the interval [0,1], rather than strict binary (True or False) decisions and
  500.    assignments.
  501.  
  502.    Fuzzy logic is used where a system is difficult to model exactly (but an inexact
  503.    model is available), is controlled by a human operator or expert, or where
  504.    ambiguity or vagueness is common. A typical fuzzy system consists of a rule
  505.    base, membership functions, and an inference procedure.
  506.  
  507.    Most Fuzzy Logic discussion takes place in the newsgroup comp.ai.fuzzy, but
  508.    there is also some work (and discussion) about combining fuzzy logic with
  509.    Neural Network approaches in comp.ai.neural-nets.
  510.  
  511.    For more details see (for example): 
  512.  
  513.    Klir, G.J. and Folger, T.A.: Fuzzy Sets, Uncertainty, and Information
  514.    Prentice-Hall, Englewood Cliffs, N.J., 1988. 
  515.    Kosko, B.: Neural Networks and Fuzzy Systems Prentice Hall, Englewood
  516.    Cliffs, NJ, 1992. 
  517.  
  518.    ------------------------------------------------------------------------
  519.  
  520.  11. A: How are NNs related to statistical methods? 
  521.  ===================================================
  522.  
  523.    There is considerable overlap between the fields of neural networks and
  524.    statistics.
  525.    Statistics is concerned with data analysis. In neural network terminology,
  526.    statistical inference means learning to generalize from noisy data. Some neural
  527.    networks are not concerned with data analysis (e.g., those intended to model
  528.    biological systems) and therefore have little to do with statistics. Some neural
  529.    networks do not learn (e.g., Hopfield nets) and therefore have little to do with
  530.    statistics. Some neural networks can learn successfully only from noise-free
  531.    data (e.g., ART or the perceptron rule) and therefore would not be considered
  532.    statistical methods. But most neural networks that can learn to generalize
  533.    effectively from noisy data are similar or identical to statistical methods. For
  534.    example: 
  535.     o Feedforward nets with no hidden layer (including functional-link
  536.       neural nets and higher-order neural nets) are basically generalized
  537.       linear models. 
  538.     o Feedforward nets with one hidden layer are closely related to
  539.       projection pursuit regression. 
  540.     o Probabilistic neural nets are identical to kernel discriminant analysis. 
  541.     o Kohonen nets for adaptive vector quantization are very similar to
  542.       k-means cluster analysis. 
  543.     o Hebbian learning is closely related to principal component analysis. 
  544.    Some neural network areas that appear to have no close relatives in the
  545.    existing statistical literature are: 
  546.     o Kohonen's self-organizing maps. 
  547.     o Reinforcement learning. 
  548.     o Stopped training (the purpose and effect of stopped training are similar
  549.       to shrinkage estimation, but the method is quite different). 
  550.    Feedforward nets are a subset of the class of nonlinear regression and
  551.    discrimination models. Statisticians have studied the properties of this general
  552.    class but had not considered the specific case of feedforward neural nets before
  553.    such networks were popularized in the neural network field. Still, many
  554.    results from the statistical theory of nonlinear models apply directly to
  555.    feedforward nets, and the methods that are commonly used for fitting
  556.    nonlinear models, such as various Levenberg-Marquardt and conjugate
  557.    gradient algorithms, can be used to train feedforward nets. 
  558.  
  559.    While neural nets are often defined in terms of their algorithms or
  560.    implementations, statistical methods are usually defined in terms of their
  561.    results. The arithmetic mean, for example, can be computed by a (very simple)
  562.    backprop net, by applying the usual formula SUM(x_i)/n, or by various other
  563.    methods. What you get is still an arithmetic mean regardless of how you
  564.    compute it. So a statistician would consider standard backprop, Quickprop,
  565.    and Levenberg-Marquardt as different algorithms for implementing the same
  566.    statistical model such as a feedforward net. On the other hand, different
  567.    training criteria, such as least squares and cross entropy, are viewed by
  568.    statisticians as fundamentally different estimation methods with different
  569.    statistical properties. 
  570.  
  571.    It is sometimes claimed that neural networks, unlike statistical models, require
  572.    no distributional assumptions. In fact, neural networks involve exactly the
  573.    same sort of distributional assumptions as statistical models, but statisticians
  574.    study the consequences and importance of these assumptions while most neural
  575.    networkers ignore them. For example, least-squares training methods are
  576.    widely used by statisticians and neural networkers. Statisticians realize that
  577.    least-squares training involves implicit distributional assumptions in that
  578.    least-squares estimates have certain optimality properties for noise that is
  579.    normally distributed with equal variance for all training cases and that is
  580.    independent between different cases. These optimality properties are
  581.    consequences of the fact that least-squares estimation is maximum likelihood
  582.    under those conditions. Similarly, cross-entropy is maximum likelihood for
  583.    noise with a Bernoulli distribution. If you study the distributional
  584.    assumptions, then you can recognize and deal with violations of the
  585.    assumptions. For example, if you have normally distributed noise but some
  586.    training cases have greater noise variance than others, then you may be able to
  587.    use weighted least squares instead of ordinary least squares to obtain more
  588.    efficient estimates. 
  589.  
  590.    ------------------------------------------------------------------------
  591.  
  592.  12. A: Good introductory literature about Neural Networks?
  593.  ==========================================================
  594.  
  595.    0.) The best (subjectively, of course -- please don't flame me):
  596.    ++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
  597.  
  598.    Haykin, S. (1994). Neural Networks, a Comprehensive Foundation.
  599.    Macmillan, New York, NY. "A very readable, well written intermediate to
  600.    advanced text on NNs Perspective is primarily one of pattern recognition,
  601.    estimation and signal processing. However, there are well-written chapters on
  602.    neurodynamics and VLSI implementation. Though there is emphasis on
  603.    formal mathematical models of NNs as universal approximators, statistical
  604.    estimators, etc., there are also examples of NNs used in practical applications.
  605.    The problem sets at the end of each chapter nicely complement the material. In
  606.    the bibliography are over 1000 references. If one buys only one book on neural
  607.    networks, this should be it."
  608.  
  609.    Hertz, J., Krogh, A., and Palmer, R. (1991). Introduction to the Theory of
  610.    Neural Computation. Addison-Wesley: Redwood City, California. ISBN
  611.    0-201-50395-6 (hardbound) and 0-201-51560-1 (paperbound) Comments:
  612.    "My first impression is that this one is by far the best book on the topic. And
  613.    it's below $30 for the paperback."; "Well written, theoretical (but not
  614.    overwhelming)"; It provides a good balance of model development,
  615.    computational algorithms, and applications. The mathematical derivations are
  616.    especially well done"; "Nice mathematical analysis on the mechanism of
  617.    different learning algorithms"; "It is NOT for mathematical beginner. If you
  618.    don't have a good grasp of higher level math, this book can be really tough to
  619.    get through."
  620.  
  621.    Masters,Timothy (1994). Practical Neural Network Recipes in C++. Academic
  622.    Press, ISBN 0-12-479040-2, US $45 incl. disks. "Lots of very good practical
  623.    advice which most other books lack."
  624.  
  625.    1.) Books for the beginner:
  626.    +++++++++++++++++++++++++++
  627.  
  628.    Aleksander, I. and Morton, H. (1990). An Introduction to Neural Computing.
  629.    Chapman and Hall. (ISBN 0-412-37780-2). Comments: "This book seems to
  630.    be intended for the first year of university education."
  631.  
  632.    Beale, R. and Jackson, T. (1990). Neural Computing, an Introduction. Adam
  633.    Hilger, IOP Publishing Ltd : Bristol. (ISBN 0-85274-262-2). Comments:
  634.    "It's clearly written. Lots of hints as to how to get the adaptive models covered
  635.    to work (not always well explained in the original sources). Consistent
  636.    mathematical terminology. Covers perceptrons, error-backpropagation,
  637.    Kohonen self-org model, Hopfield type models, ART, and associative
  638.    memories."
  639.  
  640.    Dayhoff, J. E. (1990). Neural Network Architectures: An Introduction. Van
  641.    Nostrand Reinhold: New York. Comments: "Like Wasserman's book,
  642.    Dayhoff's book is also very easy to understand".
  643.  
  644.    Fausett, L. V. (1994). Fundamentals of Neural Networks: Architectures,
  645.    Algorithms and Applications, Prentice Hall, ISBN 0-13-334186-0. Also
  646.    published as a Prentice Hall International Edition, ISBN 0-13-042250-9.
  647.    Sample softeware (source code listings in C and Fortran) is included in an
  648.    Instructor's Manual. "Intermediate in level between Wasserman and
  649.    Hertz/Krogh/Palmer. Algorithms for a broad range of neural networks,
  650.    including a chapter on Adaptive Resonace Theory with ART2. Simple
  651.    examples for each network."
  652.  
  653.    Freeman, James (1994). Simulating Neural Networks with Mathematica,
  654.    Addison-Wesley, ISBN: 0-201-56629-X. Helps the reader make his own
  655.    NNs. The mathematica code for the programs in the book is also available
  656.    through the internet: Send mail to MathSource@wri.com or try 
  657.    http://www.wri.com/ on the World Wide Web.
  658.  
  659.    Hecht-Nielsen, R. (1990). Neurocomputing. Addison Wesley. Comments: "A
  660.    good book", "comprises a nice historical overview and a chapter about NN
  661.    hardware. Well structured prose. Makes important concepts clear."
  662.  
  663.    McClelland, J. L. and Rumelhart, D. E. (1988). Explorations in Parallel
  664.    Distributed Processing: Computational Models of Cognition and Perception
  665.    (software manual). The MIT Press. Comments: "Written in a tutorial style,
  666.    and includes 2 diskettes of NN simulation programs that can be compiled on
  667.    MS-DOS or Unix (and they do too !)"; "The programs are pretty reasonable as
  668.    an introduction to some of the things that NNs can do."; "There are *two*
  669.    editions of this book. One comes with disks for the IBM PC, the other comes
  670.    with disks for the Macintosh".
  671.  
  672.    McCord Nelson, M. and Illingworth, W.T. (1990). A Practical Guide to
  673.    Neural Nets. Addison-Wesley Publishing Company, Inc. (ISBN
  674.    0-201-52376-0). Comments: "No formulas at all"; "It does not have much
  675.    detailed model development (very few equations), but it does present many
  676.    areas of application. It includes a chapter on current areas of research. A
  677.    variety of commercial applications is discussed in chapter 1. It also includes a
  678.    program diskette with a fancy graphical interface (unlike the PDP diskette)".
  679.  
  680.    Muller, B. and Reinhardt, J. (1990). Neural Networks, An Introduction.
  681.    Springer-Verlag: Berlin Heidelberg New York (ISBN: 3-540-52380-4 and
  682.    0-387-52380-4). Comments: The book was developed out of a course on
  683.    neural-network models with computer demonstrations that was taught by the
  684.    authors to Physics students. The book comes together with a PC-diskette. The
  685.    book is divided into three parts: (1) Models of Neural Networks; describing
  686.    several architectures and learing rules, including the mathematics. (2)
  687.    Statistical Physiscs of Neural Networks; "hard-core" physics section
  688.    developing formal theories of stochastic neural networks. (3) Computer Codes;
  689.    explanation about the demonstration programs. First part gives a nice
  690.    introduction into neural networks together with the formulas. Together with
  691.    the demonstration programs a 'feel' for neural networks can be developed.
  692.  
  693.    Orchard, G.A. & Phillips, W.A. (1991). Neural Computation: A Beginner's
  694.    Guide. Lawrence Earlbaum Associates: London. Comments: "Short
  695.    user-friendly introduction to the area, with a non-technical flavour.
  696.    Apparently accompanies a software package, but I haven't seen that yet".
  697.  
  698.    Rao, V.B & H.V. (1993). C++ Neural Networks and Fuzzy Logic. MIS:Press,
  699.    ISBN 1-55828-298-x, US $45 incl. disks. "Probably not 'leading edge' stuff
  700.    but detailed enough to get your hands dirty!"
  701.  
  702.    Wasserman, P. D. (1989). Neural Computing: Theory & Practice. Van
  703.    Nostrand Reinhold: New York. (ISBN 0-442-20743-3) Comments:
  704.    "Wasserman flatly enumerates some common architectures from an engineer's
  705.    perspective ('how it works') without ever addressing the underlying
  706.    fundamentals ('why it works') - important basic concepts such as clustering,
  707.    principal components or gradient descent are not treated. It's also full of
  708.    errors, and unhelpful diagrams drawn with what appears to be PCB board
  709.    layout software from the '70s. For anyone who wants to do active research in
  710.    the field I consider it quite inadequate"; "Okay, but too shallow"; "Quite easy
  711.    to understand"; "The best bedtime reading for Neural Networks. I have given
  712.    this book to numerous collegues who want to know NN basics, but who never
  713.    plan to implement anything. An excellent book to give your manager."
  714.  
  715.    Wasserman, P.D. (1993). Advanced Methods in Neural Computing. Van
  716.    Nostrand Reinhold: New York (ISBN: 0-442-00461-3). Comments: Several
  717.    neural network topics are discussed e.g. Probalistic Neural Networks,
  718.    Backpropagation and beyond, neural control, Radial Basis Function Networks,
  719.    Neural Engineering. Furthermore, several subjects related to neural networks
  720.    are mentioned e.g. genetic algorithms, fuzzy logic, chaos. Just the
  721.    functionality of these subjects is described; enough to get you started. Lots of
  722.    references are given to more elaborate descriptions. Easy to read, no extensive
  723.    mathematical background necessary.
  724.  
  725.    2.) The classics:
  726.    +++++++++++++++++
  727.  
  728.    Kohonen, T. (1984). Self-organization and Associative Memory.
  729.    Springer-Verlag: New York. (2nd Edition: 1988; 3rd edition: 1989).
  730.    Comments: "The section on Pattern mathematics is excellent."
  731.  
  732.    Rumelhart, D. E. and McClelland, J. L. (1986). Parallel Distributed
  733.    Processing: Explorations in the Microstructure of Cognition (volumes 1 & 2).
  734.    The MIT Press. Comments: "As a computer scientist I found the two
  735.    Rumelhart and McClelland books really heavy going and definitely not the
  736.    sort of thing to read if you are a beginner."; "It's quite readable, and affordable
  737.    (about $65 for both volumes)."; "THE Connectionist bible".
  738.  
  739.    3.) Introductory journal articles:
  740.    ++++++++++++++++++++++++++++++++++
  741.  
  742.    Hinton, G. E. (1989). Connectionist learning procedures. Artificial
  743.    Intelligence, Vol. 40, pp. 185--234. Comments: "One of the better neural
  744.    networks overview papers, although the distinction between network topology
  745.    and learning algorithm is not always very clear. Could very well be used as an
  746.    introduction to neural networks."
  747.  
  748.    Knight, K. (1990). Connectionist, Ideas and Algorithms. Communications of
  749.    the ACM. November 1990. Vol.33 nr.11, pp 59-74. Comments:"A good
  750.    article, while it is for most people easy to find a copy of this journal."
  751.  
  752.    Kohonen, T. (1988). An Introduction to Neural Computing. Neural Networks,
  753.    vol. 1, no. 1. pp. 3-16. Comments: "A general review".
  754.  
  755.    4.) Not-quite-so-introductory literature:
  756.    +++++++++++++++++++++++++++++++++++++++++
  757.  
  758.    Anderson, J. A. and Rosenfeld, E. (Eds). (1988). Neurocomputing: Foundations
  759.    of Research. The MIT Press: Cambridge, MA. Comments: "An expensive
  760.    book, but excellent for reference. It is a collection of reprints of most of the
  761.    major papers in the field." 
  762.  
  763.    Anderson, J. A., Pellionisz, A. and Rosenfeld, E. (Eds). (1990).
  764.    Neurocomputing 2: Directions for Research. The MIT Press: Cambridge, MA.
  765.    Comments: "The sequel to their well-known Neurocomputing book."
  766.  
  767.    Caudill, M. and Butler, C. (1990). Naturally Intelligent Systems. MIT Press:
  768.    Cambridge, Massachusetts. (ISBN 0-262-03156-6). Comments: "I guess one
  769.    of the best books I read"; "May not be suited for people who want to do some
  770.    research in the area".
  771.  
  772.    Cichocki, A. and Unbehauen, R. (1994). Neural Networks for Optimization
  773.    and Signal Processing. John Wiley & Sons, West Sussex, England, 1993, ISBN
  774.    0-471-930105 (hardbound), 526 pages, $57.95. "Partly a textbook and partly a
  775.    research monograph; introduces the basic concepts, techniques, and models
  776.    related to neural networks and optimization, excluding rigorous mathematical
  777.    details. Accessible to a wide readership with a differential calculus
  778.    background. The main coverage of the book is on recurrent neural networks
  779.    with continuous state variables. The book title would be more appropriate
  780.    without mentioning signal processing. Well edited, good illustrations."
  781.  
  782.    Khanna, T. (1990). Foundations of Neural Networks. Addison-Wesley: New
  783.    York. Comments: "Not so bad (with a page of erroneous formulas (if I
  784.    remember well), and #hidden layers isn't well described)."; "Khanna's
  785.    intention in writing his book with math analysis should be commended but he
  786.    made several mistakes in the math part".
  787.  
  788.    Kung, S.Y. (1993). Digital Neural Networks, Prentice Hall, Englewood Cliffs,
  789.    NJ.
  790.  
  791.    Levine, D. S. (1990). Introduction to Neural and Cognitive Modeling.
  792.    Lawrence Erlbaum: Hillsdale, N.J. Comments: "Highly recommended".
  793.  
  794.    Lippmann, R. P. (April 1987). An introduction to computing with neural nets.
  795.    IEEE Acoustics, Speech, and Signal Processing Magazine. vol. 2, no. 4, pp
  796.    4-22. Comments: "Much acclaimed as an overview of neural networks, but
  797.    rather inaccurate on several points. The categorization into binary and
  798.    continuous- valued input neural networks is rather arbitrary, and may work
  799.    confusing for the unexperienced reader. Not all networks discussed are of
  800.    equal importance."
  801.  
  802.    Maren, A., Harston, C. and Pap, R., (1990). Handbook of Neural Computing
  803.    Applications. Academic Press. ISBN: 0-12-471260-6. (451 pages)
  804.    Comments: "They cover a broad area"; "Introductory with suggested
  805.    applications implementation".
  806.  
  807.    Pao, Y. H. (1989). Adaptive Pattern Recognition and Neural Networks
  808.    Addison-Wesley Publishing Company, Inc. (ISBN 0-201-12584-6)
  809.    Comments: "An excellent book that ties together classical approaches to
  810.    pattern recognition with Neural Nets. Most other NN books do not even
  811.    mention conventional approaches."
  812.  
  813.    Rumelhart, D. E., Hinton, G. E. and Williams, R. J. (1986). Learning
  814.    representations by back-propagating errors. Nature, vol 323 (9 October), pp.
  815.    533-536. Comments: "Gives a very good potted explanation of backprop
  816.    NN's. It gives sufficient detail to write your own NN simulation."
  817.  
  818.    Simpson, P. K. (1990). Artificial Neural Systems: Foundations, Paradigms,
  819.    Applications and Implementations. Pergamon Press: New York. Comments:
  820.    "Contains a very useful 37 page bibliography. A large number of paradigms
  821.    are presented. On the negative side the book is very shallow. Best used as a
  822.    complement to other books".
  823.  
  824.    Zeidenberg. M. (1990). Neural Networks in Artificial Intelligence. Ellis
  825.    Horwood, Ltd., Chichester. Comments: "Gives the AI point of view".
  826.  
  827.    Zornetzer, S. F., Davis, J. L. and Lau, C. (1990). An Introduction to Neural and
  828.    Electronic Networks. Academic Press. (ISBN 0-12-781881-2) Comments:
  829.    "Covers quite a broad range of topics (collection of articles/papers ).";
  830.    "Provides a primer-like introduction and overview for a broad audience, and
  831.    employs a strong interdisciplinary emphasis".
  832.  
  833.    ------------------------------------------------------------------------
  834.  
  835.  13. A: Any journals and magazines about Neural Networks?
  836.  ========================================================
  837.  
  838.    [to be added: comments on speed of reviewing and publishing,
  839.                  whether they accept TeX format or ASCII by e-mail, etc.]
  840.  
  841.    A. Dedicated Neural Network Journals:
  842.    +++++++++++++++++++++++++++++++++++++
  843.  
  844.    Title:   Neural Networks
  845.    Publish: Pergamon Press
  846.    Address: Pergamon Journals Inc., Fairview Park, Elmsford, 
  847.             New York 10523, USA and Pergamon Journals Ltd.
  848.             Headington Hill Hall, Oxford OX3, 0BW, England
  849.    Freq.:   10 issues/year (vol. 1 in 1988)
  850.    Cost/Yr: Free with INNS or JNNS or ENNS membership ($45?),
  851.             Individual $65, Institution $175
  852.    ISSN #:  0893-6080
  853.    Remark:  Official Journal of International Neural Network Society (INNS),
  854.             European Neural Network Society (ENNS) and Japanese Neural
  855.             Network Society (JNNS).
  856.             Contains Original Contributions, Invited Review Articles, Letters
  857.             to Editor, Book Reviews, Editorials, Announcements, Software Surveys.
  858.  
  859.    Title:   Neural Computation
  860.    Publish: MIT Press 
  861.    Address: MIT Press Journals, 55 Hayward Street Cambridge, 
  862.             MA 02142-9949, USA, Phone: (617) 253-2889
  863.    Freq.:   Quarterly (vol. 1 in 1989)
  864.    Cost/Yr: Individual $45, Institution $90, Students $35; Add $9 Outside USA
  865.    ISSN #:  0899-7667
  866.    Remark:  Combination of Reviews (10,000 words), Views (4,000 words)
  867.             and Letters (2,000 words).  I have found this journal to be of
  868.             outstanding quality.
  869.             (Note: Remarks supplied by Mike Plonski "plonski@aero.org")
  870.  
  871.    Title:   IEEE Transactions on Neural Networks
  872.    Publish: Institute of Electrical and Electronics Engineers (IEEE)
  873.    Address: IEEE Service Cemter, 445 Hoes Lane, P.O. Box 1331, Piscataway, NJ,
  874.             08855-1331 USA. Tel: (201) 981-0060
  875.    Cost/Yr: $10 for Members belonging to participating IEEE societies
  876.    Freq.:   Quarterly (vol. 1 in March 1990)
  877.    Remark:  Devoted to the science and technology of neural networks
  878.             which disclose significant  technical knowledge, exploratory
  879.             developments and applications of neural networks from biology to
  880.             software to hardware.  Emphasis is on artificial neural networks.
  881.             Specific aspects include self organizing systems, neurobiological
  882.             connections, network dynamics and architecture, speech recognition,
  883.             electronic and photonic implementation, robotics and controls.
  884.             Includes Letters concerning new research results.
  885.             (Note: Remarks are from journal announcement)
  886.  
  887.    Title:   International Journal of Neural Systems
  888.    Publish: World Scientific Publishing
  889.    Address: USA: World Scientific Publishing Co., 1060 Main Street, River Edge,
  890.             NJ 07666. Tel: (201) 487 9655; Europe: World Scientific Publishing
  891.             Co. Ltd., 57 Shelton Street, London WC2H 9HE, England.
  892.             Tel: (0171) 836 0888; Asia: World Scientific Publishing Co. Pte. Ltd.,
  893.             1022 Hougang Avenue 1 #05-3520, Singapore 1953, Rep. of Singapore
  894.             Tel: 382 5663.
  895.    Freq.:   Quarterly (Vol. 1 in 1990)
  896.    Cost/Yr: Individual $122, Institution $255 (plus $15-$25 for postage)
  897.    ISSN #:  0129-0657 (IJNS)
  898.    Remark:  The International Journal of Neural Systems is a quarterly
  899.             journal which covers information processing in natural
  900.             and artificial neural systems. Contributions include research papers,
  901.             reviews, and Letters to the Editor - communications under 3,000
  902.             words in length, which are published within six months of receipt.
  903.             Other contributions are typically published within nine months.
  904.             The journal presents a fresh undogmatic attitude towards this
  905.             multidisciplinary field and aims to be a forum for novel ideas and
  906.             improved understanding of collective and cooperative phenomena with
  907.             computational capabilities.
  908.             Papers should be submitted to World Scientific's UK office. Once a
  909.             paper is accepted for publication, authors are invited to e-mail
  910.             the LaTeX source file of their paper in order to expedite publication.
  911.  
  912.    Title:   International Journal of Neurocomputing
  913.    Publish: Elsevier Science Publishers, Journal Dept.; PO Box 211;
  914.             1000 AE Amsterdam, The Netherlands
  915.    Freq.:   Quarterly (vol. 1 in 1989)
  916.    Editor:  V.D. Sanchez A.; German Aerospace Research Establishment;
  917.             Institute for Robotics and System Dynamics, 82230 Wessling, Germany.
  918.             Current events and software news editor: Dr. F. Murtagh, ESA,
  919.             Karl-Schwarzschild Strasse 2, D-85748, Garching, Germany,
  920.             phone +49-89-32006298, fax +49-89-32006480, email fmurtagh@eso.org
  921.  
  922.    Title:   Neural Processing Letters
  923.    Publish: D facto publications
  924.    Address: 45 rue Masui; B-1210 Brussels, Belgium
  925.             Phone: (32) 2 245 43 63;  Fax: (32) 2 245 46 94
  926.    Freq:    6 issues/year (vol. 1 in September 1994)
  927.    Cost/Yr: BEF 4400 (about $140)
  928.    ISSN #:  1370-4621
  929.    Remark:  The aim of the journal is to rapidly publish new ideas, original
  930.             developments and work in progress.  Neural Processing Letters
  931.             covers all aspects of the Artificial Neural Networks field.
  932.             Publication delay is about 3 months.
  933.             FTP server available: 
  934.              ftp://ftp.dice.ucl.ac.be/pub/neural-nets/NPL.
  935.             WWW server available: 
  936.                http://www.dice.ucl.ac.be/neural-nets/NPL/NPL.html
  937.  
  938.    Title:   Neural Network News
  939.    Publish: AIWeek Inc.
  940.    Address: Neural Network News, 2555 Cumberland Parkway, Suite 299,
  941.             Atlanta, GA 30339 USA. Tel: (404) 434-2187
  942.    Freq.:   Monthly (beginning September 1989)
  943.    Cost/Yr: USA and Canada $249, Elsewhere $299
  944.    Remark:  Commericial Newsletter
  945.  
  946.    Title:   Network: Computation in Neural Systems
  947.    Publish: IOP Publishing Ltd
  948.    Address: Europe: IOP Publishing Ltd, Techno House, Redcliffe Way, Bristol 
  949.             BS1 6NX, UK; IN USA: American Institute of Physics, Subscriber
  950.             Services 500 Sunnyside Blvd., Woodbury, NY  11797-2999
  951.    Freq.:   Quarterly (1st issue 1990)
  952.    Cost/Yr: USA: $180,  Europe: 110 pounds
  953.    Remark:  Description: "a forum for integrating theoretical and experimental
  954.             findings across relevant interdisciplinary boundaries."  Contents:
  955.             Submitted articles reviewed by two technical referees  paper's 
  956.             interdisciplinary format and accessability."  Also Viewpoints and 
  957.             Reviews commissioned by the editors, abstracts (with reviews) of
  958.             articles published in other journals, and book reviews.
  959.             Comment: While the price discourages me (my comments are based
  960.             upon a free sample copy), I think that the journal succeeds
  961.             very well.  The highest density of interesting articles I
  962.             have found in any journal. 
  963.             (Note: Remarks supplied by kehoe@csufres.CSUFresno.EDU)
  964.  
  965.    Title:   Connection Science: Journal of Neural Computing, 
  966.             Artificial Intelligence and Cognitive Research
  967.    Publish: Carfax Publishing
  968.    Address: Europe: Carfax Publishing Company, P. O. Box 25, Abingdon, 
  969.             Oxfordshire  OX14 3UE, UK.  USA: Carafax Publishing Company,
  970.             85 Ash Street, Hopkinton, MA 01748
  971.    Freq.:   Quarterly (vol. 1 in 1989)
  972.    Cost/Yr: Individual $82, Institution $184, Institution (U.K.) 74 pounds
  973.  
  974.    Title:   International Journal of Neural Networks
  975.    Publish: Learned Information
  976.    Freq.:   Quarterly (vol. 1 in 1989)
  977.    Cost/Yr: 90 pounds
  978.    ISSN #:  0954-9889
  979.    Remark:  The journal contains articles, a conference report (at least the 
  980.             issue I have), news and a calendar.
  981.             (Note: remark provided by J.R.M. Smits "anjos@sci.kun.nl")
  982.  
  983.    Title:   Sixth Generation Systems (formerly Neurocomputers)
  984.    Publish: Gallifrey Publishing
  985.    Address: Gallifrey Publishing, PO Box 155, Vicksburg, Michigan, 49097, USA
  986.             Tel: (616) 649-3772, 649-3592 fax
  987.    Freq.    Monthly (1st issue January, 1987)
  988.    ISSN #:  0893-1585
  989.    Editor:  Derek F. Stubbs
  990.    Cost/Yr: $79 (USA, Canada), US$95 (elsewhere)
  991.    Remark:  Runs eight to 16 pages monthly. In 1995 will go to floppy disc-based
  992.    publishing with databases +, "the equivalent to 50 pages per issue are
  993.    planned." Often focuses on specific topics: e.g., August, 1994 contains two
  994.    articles: "Economics, Times Series and the Market," and "Finite Particle
  995.    Analysis - [part] II."  Stubbs also directs the company Advanced Forecasting
  996.    Technologies. (Remark by Ed Rosenfeld: ier@aol.com)
  997.  
  998.    Title:   JNNS Newsletter (Newsletter of the Japan Neural Network Society)
  999.    Publish: The Japan Neural Network Society
  1000.    Freq.:   Quarterly (vol. 1 in 1989)
  1001.    Remark:  (IN JAPANESE LANGUAGE) Official Newsletter of the Japan Neural 
  1002.             Network Society(JNNS)
  1003.             (Note: remarks by Osamu Saito "saito@nttica.NTT.JP")
  1004.  
  1005.    Title:   Neural Networks Today
  1006.    Remark:  I found this title in a bulletin board of october last year.
  1007.             It was a message of Tim Pattison, timpatt@augean.OZ
  1008.             (Note: remark provided by J.R.M. Smits "anjos@sci.kun.nl")
  1009.  
  1010.    Title:   Computer Simulations in Brain Science
  1011.  
  1012.    Title:   Internation Journal of Neuroscience
  1013.  
  1014.    Title:   Neural Network Computation 
  1015.    Remark:  Possibly the same as "Neural Computation"
  1016.  
  1017.    Title:   Neural Computing and Applications
  1018.    Freq.:   Quarterly
  1019.    Publish: Springer Verlag
  1020.    Cost/yr: 120 Pounds
  1021.    Remark:  Is the journal of the Neural Computing Applications Forum.
  1022.             Publishes original research and other information
  1023.             in the field of practical applications of neural computing.
  1024.  
  1025.    B. NN Related Journals:
  1026.    +++++++++++++++++++++++
  1027.  
  1028.    Title:   Complex Systems
  1029.    Publish: Complex Systems Publications
  1030.    Address: Complex Systems Publications, Inc., P.O. Box 6149, Champaign,
  1031.             IL 61821-8149, USA
  1032.    Freq.:   6 times per year (1st volume is 1987)
  1033.    ISSN #:  0891-2513
  1034.    Cost/Yr: Individual $75, Institution $225
  1035.    Remark:  Journal COMPLEX SYSTEMS  devotes to rapid publication of research
  1036.             on science, mathematics, and engineering of systems with simple
  1037.             components but complex overall behavior. Send mail to 
  1038.             "jcs@complex.ccsr.uiuc.edu" for additional info.
  1039.             (Remark is from announcement on Net)
  1040.  
  1041.    Title:   Biological Cybernetics (Kybernetik)
  1042.    Publish: Springer Verlag
  1043.    Remark:  Monthly (vol. 1 in 1961)
  1044.  
  1045.    Title:   Various IEEE Transactions and Magazines
  1046.    Publish: IEEE
  1047.    Remark:  Primarily see IEEE Trans. on System, Man and Cybernetics;
  1048.             Various Special Issues: April 1990 IEEE Control Systems
  1049.             Magazine.; May 1989 IEEE Trans. Circuits and Systems.;
  1050.             July 1988 IEEE Trans. Acoust. Speech Signal Process.
  1051.  
  1052.    Title:   The Journal of Experimental and Theoretical Artificial Intelligence
  1053.    Publish: Taylor & Francis, Ltd.
  1054.    Address: London, New York, Philadelphia
  1055.    Freq.:   ? (1st issue Jan 1989)
  1056.    Remark:  For submission information, please contact either of the editors:
  1057.             Eric Dietrich                        Chris Fields
  1058.             PACSS - Department of Philosophy     Box 30001/3CRL
  1059.             SUNY Binghamton                      New Mexico State University
  1060.             Binghamton, NY 13901                 Las Cruces, NM 88003-0001
  1061.             dietrich@bingvaxu.cc.binghamton.edu  cfields@nmsu.edu
  1062.  
  1063.    Title:   The Behavioral and Brain Sciences
  1064.    Publish: Cambridge University Press
  1065.    Remark:  (Expensive as hell, I'm sure.)
  1066.             This is a delightful journal that encourages discussion on a
  1067.             variety of controversial topics.  I have especially enjoyed
  1068.             reading some papers in there by Dana Ballard and Stephen
  1069.             Grossberg (separate papers, not collaborations) a few years
  1070.             back.  They have a really neat concept: they get a paper,
  1071.             then invite a number of noted scientists in the field to
  1072.             praise it or trash it.  They print these commentaries, and
  1073.             give the author(s) a chance to make a rebuttal or
  1074.             concurrence.  Sometimes, as I'm sure you can imagine, things
  1075.             get pretty lively.  I'm reasonably sure they are still at
  1076.             it--I think I saw them make a call for reviewers a few
  1077.             months ago.  Their reviewers are called something like
  1078.             Behavioral and Brain Associates, and I believe they have to
  1079.             be nominated by current associates, and should be fairly
  1080.             well established in the field.  That's probably more than I
  1081.             really know about it but maybe if you post it someone who
  1082.             knows more about it will correct any errors I have made.
  1083.             The main thing is that I liked the articles I read. (Note:
  1084.             remarks by Don Wunsch )
  1085.                      
  1086.    Title:   International Journal of Applied Intelligence
  1087.    Publish: Kluwer Academic Publishers
  1088.    Remark:  first issue in 1990(?)
  1089.  
  1090.    Title:   Bulletin of Mathematica Biology
  1091.  
  1092.    Title:   Intelligence
  1093.  
  1094.    Title:   Journal of Mathematical Biology
  1095.  
  1096.    Title:   Journal of Complex System
  1097.  
  1098.    Title:   AI Expert
  1099.    Publish: Miller Freeman Publishing Co., for subscription call ++415-267-7672.
  1100.    Remark:  Regularly includes ANN related articles, product
  1101.             announcements, and application reports. Listings of ANN
  1102.             programs are available on AI Expert affiliated BBS's
  1103.  
  1104.    Title:   International Journal of Modern Physics C
  1105.    Publish: USA: World Scientific Publishing Co., 1060 Main Street, River Edge,
  1106.             NJ 07666. Tel: (201) 487 9655; Europe: World Scientific Publishing
  1107.             Co. Ltd., 57 Shelton Street, London WC2H 9HE, England.
  1108.             Tel: (0171) 836 0888; Asia: World Scientific Publishing Co. Pte. Ltd.,
  1109.             1022 Hougang Avenue 1 #05-3520, Singapore 1953, Rep. of Singapore
  1110.             Tel: 382 5663.
  1111.    Freq:    bi-monthly
  1112.    Eds:     H. Herrmann, R. Brower, G.C. Fox and S Nose
  1113.  
  1114.    Title:   Machine Learning
  1115.    Publish: Kluwer Academic Publishers
  1116.    Address: Kluwer Academic Publishers
  1117.             P.O. Box 358
  1118.             Accord Station
  1119.             Hingham, MA 02018-0358 USA
  1120.    Freq.:   Monthly (8 issues per year; increasing to 12 in 1993)
  1121.    Cost/Yr: Individual $140 (1992); Member of AAAI or CSCSI $88
  1122.    Remark:  Description: Machine Learning is an international forum for 
  1123.             research on computational approaches to learning.  The journal
  1124.             publishes articles reporting substantive research results on a
  1125.             wide range of learning methods applied to a variety of task
  1126.             domains.  The ideal paper will make a theoretical contribution
  1127.             supported by a computer implementation.
  1128.             The journal has published many key papers in learning theory,
  1129.             reinforcement learning, and decision tree methods.  Recently
  1130.             it has published a special issue on connectionist approaches
  1131.             to symbolic reasoning.  The journal regularly publishes
  1132.             issues devoted to genetic algorithms as well.
  1133.  
  1134.    Title:   INTELLIGENCE - The Future of Computing
  1135.    Published by: Intelligence
  1136.    Address: INTELLIGENCE, P.O. Box 20008, New York, NY 10025-1510, USA,
  1137.    212-222-1123 voice & fax; email: ier@aol.com, CIS: 72400,1013
  1138.    Freq.    Monthly plus four special reports each year (1st issue: May, 1984)
  1139.    ISSN #:  1042-4296
  1140.    Editor:  Edward Rosenfeld 
  1141.    Cost/Yr: $395 (USA), US$450 (elsewhere)
  1142.    Remark:  Has absorbed several other newsletters, like Synapse/Connection
  1143.             and Critical Technology Trends (formerly AI Trends).
  1144.             Covers NN, genetic algorithms, fuzzy systems, wavelets, chaos
  1145.             and other advanced computing approaches, as well as molecular
  1146.             computing and nanotechnology.
  1147.  
  1148.    Title:   Journal of Physics A: Mathematical and General
  1149.    Publish: Inst. of Physics, Bristol
  1150.    Freq:    24 issues per year.
  1151.    Remark:  Statistical mechanics aspects of neural networks 
  1152.             (mostly Hopfield models).
  1153.  
  1154.    Title:   Physical Review A: Atomic, Molecular and Optical Physics
  1155.    Publish: The American Physical Society (Am. Inst. of Physics)
  1156.    Freq:    Monthly
  1157.    Remark:  Statistical mechanics of neural networks.
  1158.  
  1159.    Title:   Information Sciences
  1160.    Publish: North Holland (Elsevier Science)
  1161.    Freq.:   Monthly
  1162.    ISSN:    0020-0255
  1163.    Editor:  Paul P. Wang; Department of Electrical Engineering; Duke University;
  1164.             Durham, NC 27706, USA
  1165.  
  1166.    C. Journals loosely related to NNs:
  1167.    +++++++++++++++++++++++++++++++++++
  1168.  
  1169.    Title:   JOURNAL OF COMPLEXITY
  1170.    Remark:  (Must rank alongside Wolfram's Complex Systems)
  1171.  
  1172.    Title:   IEEE ASSP Magazine
  1173.    Remark:  (April 1987 had the Lippmann intro. which everyone likes to cite)
  1174.  
  1175.    Title:   ARTIFICIAL INTELLIGENCE
  1176.    Remark:  (Vol 40, September 1989 had the survey paper by Hinton)
  1177.  
  1178.    Title:   COGNITIVE SCIENCE
  1179.    Remark:  (the Boltzmann machine paper by Ackley et al appeared here
  1180.             in Vol 9, 1983)
  1181.  
  1182.    Title:   COGNITION
  1183.    Remark:  (Vol 28, March 1988 contained the Fodor and Pylyshyn
  1184.             critique of connectionism)
  1185.  
  1186.    Title:   COGNITIVE PSYCHOLOGY
  1187.    Remark:  (no comment!)
  1188.  
  1189.    Title:   JOURNAL OF MATHEMATICAL PSYCHOLOGY
  1190.    Remark:  (several good book reviews)
  1191.  
  1192.    ------------------------------------------------------------------------
  1193.  
  1194.  14. A: The most important conferences concerned with Neural
  1195.  ===========================================================
  1196.    Networks?
  1197.    =========
  1198.  
  1199.    [to be added: has taken place how often yet; most emphasized topics;
  1200.     where to get proceedings/calls-for-papers etc. ]
  1201.  
  1202.    A. Dedicated Neural Network Conferences:
  1203.    ++++++++++++++++++++++++++++++++++++++++
  1204.  
  1205.     1. Neural Information Processing Systems (NIPS) Annually since 1988 in
  1206.       Denver, Colorado; late November or early December. Interdisciplinary
  1207.       conference with computer science, physics, engineering, biology,
  1208.       medicine, cognitive science topics. Covers all aspects of NNs.
  1209.       Proceedings appear several months after the conference as a book from
  1210.       Morgan Kaufman, San Mateo, CA. 
  1211.     2. International Joint Conference on Neural Networks (IJCNN) formerly
  1212.       co-sponsored by INNS and IEEE, no longer held. 
  1213.     3. Annual Conference on Neural Networks (ACNN) 
  1214.     4. International Conference on Artificial Neural Networks (ICANN)
  1215.       Annually in Europe. First was 1991. Major conference of European
  1216.       Neur. Netw. Soc. (ENNS) 
  1217.     5. WCNN. Sponsored by INNS. 
  1218.     6. European Symposium on Artificial Neural Networks (ESANN).
  1219.       Anually since 1993 in Brussels, Belgium; late April; conference on the
  1220.       fundamental aspects of artificial neural networks: theory, mathematics,
  1221.       biology, relations between neural networks and other disciplines,
  1222.       statistics, learning, algorithms, models and architectures,
  1223.       self-organization, signal processing, approximation of functions,
  1224.       evolutive learning, etc. Contact: Michel Verleysen, D facto conference
  1225.       services, 45 rue Masui, B-1210 Brussels, Belgium, phone: +32 2 245
  1226.       43 63, fax: + 32 2 245 46 94, e-mail: esann@dice.ucl.ac.be 
  1227.     7. Artificial Neural Networks in Engineering (ANNIE) Anually since
  1228.       1991 in St. Louis, Missouri; held in November. (Topics: NN
  1229.       architectures, pattern recognition, neuro-control, neuro-engineering
  1230.       systems. Contact: ANNIE; Engineering Management Department; 223
  1231.       Engineering Management Building; University of Missouri-Rolla;
  1232.       Rolla, MO 65401; FAX: (314) 341-6567) 
  1233.     8. many many more.... 
  1234.  
  1235.    B. Other Conferences
  1236.    ++++++++++++++++++++
  1237.  
  1238.     1. International Joint Conference on Artificial Intelligence (IJCAI) 
  1239.     2. Intern. Conf. on Acustics, Speech and Signal Processing (ICASSP) 
  1240.     3. Intern. Conf. on Pattern Recognition. Held every other year. Has a
  1241.       connectionist subconference. Information: General Chair Walter G.
  1242.       Kropatsch <krw@prip.tuwien.ac.at> 
  1243.     4. Annual Conference of the Cognitive Science Society 
  1244.     5. [Vision Conferences?] 
  1245.  
  1246.    C. Pointers to Conferences
  1247.    ++++++++++++++++++++++++++
  1248.  
  1249.     1. The journal "Neural Networks" has a list of conferences, workshops
  1250.       and meetings in each issue. This is quite interdisciplinary. 
  1251.     2. There is a regular posting on comp.ai.neural-nets from Paultje Bakker:
  1252.       "Upcoming Neural Network Conferences", which lists names, dates,
  1253.       locations, contacts, and deadlines. It is also available for anonymous ftp
  1254.       from ftp.cs.uq.oz.au as /pub/pdp/conferences 
  1255.  
  1256.    ------------------------------------------------------------------------
  1257.  
  1258.  15. A: Neural Network Associations?
  1259.  ===================================
  1260.  
  1261.     1. International Neural Network Society (INNS).
  1262.     +++++++++++++++++++++++++++++++++++++++++++++++
  1263.  
  1264.       INNS membership includes subscription to "Neural Networks", the
  1265.       official journal of the society. Membership is $55 for non-students and
  1266.       $45 for students per year. Address: INNS Membership, P.O. Box
  1267.       491166, Ft. Washington, MD 20749. 
  1268.  
  1269.     2. International Student Society for Neural Networks (ISSNNets).
  1270.     ++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
  1271.  
  1272.       Membership is $5 per year. Address: ISSNNet, Inc., P.O. Box 15661,
  1273.       Boston, MA 02215 USA 
  1274.  
  1275.     3. Women In Neural Network Research and technology (WINNERS).
  1276.     +++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
  1277.  
  1278.       Address: WINNERS, c/o Judith Dayhoff, 11141 Georgia Ave., Suite
  1279.       206, Wheaton, MD 20902. Phone: 301-933-9000. 
  1280.  
  1281.     4. European Neural Network Society (ENNS)
  1282.     +++++++++++++++++++++++++++++++++++++++++
  1283.  
  1284.       ENNS membership includes subscription to "Neural Networks", the
  1285.       official journal of the society. Membership is currently (1994) 50 UK
  1286.       pounds (35 UK pounds for students) per year. Address: ENNS
  1287.       Membership, Centre for Neural Networks, King's College London,
  1288.       Strand, London WC2R 2LS, United Kingdom. 
  1289.  
  1290.     5. Japanese Neural Network Society (JNNS)
  1291.     +++++++++++++++++++++++++++++++++++++++++
  1292.  
  1293.       Address: Japanese Neural Network Society; Department of
  1294.       Engineering, Tamagawa University; 6-1-1, Tamagawa Gakuen,
  1295.       Machida City, Tokyo; 194 JAPAN; Phone: +81 427 28 3457, Fax: +81
  1296.       427 28 3597 
  1297.  
  1298.     6. Association des Connexionnistes en THese (ACTH)
  1299.     ++++++++++++++++++++++++++++++++++++++++++++++++++
  1300.  
  1301.       (the French Student Association for Neural Networks); Membership is
  1302.       100 FF per year; Activities : newsletter, conference (every year), list of
  1303.       members, electronic forum; Journal 'Valgo' (ISSN 1243-4825);
  1304.       Contact : acth@loria.fr 
  1305.  
  1306.     7. Neurosciences et Sciences de l'Ingenieur (NSI)
  1307.     +++++++++++++++++++++++++++++++++++++++++++++++++
  1308.  
  1309.       Biology & Computer Science Activity : conference (every year)
  1310.       Address : NSI - TIRF / INPG 46 avenue Felix Viallet 38031 Grenoble
  1311.       Cedex FRANCE 
  1312.  
  1313.    ------------------------------------------------------------------------
  1314.  
  1315.  16. A: Other sources of information about NNs?
  1316.  ==============================================
  1317.  
  1318.     1. Neuron Digest
  1319.     ++++++++++++++++
  1320.  
  1321.       Internet Mailing List. From the welcome blurb: "Neuron-Digest is a
  1322.       list (in digest form) dealing with all aspects of neural networks (and
  1323.       any type of network or neuromorphic system)" To subscribe, send
  1324.       email to neuron-request@cattell.psych.upenn.edu comp.ai.neural-net
  1325.       readers also find the messages in that newsgroup in the form of digests.
  1326.  
  1327.     2. Usenet groups comp.ai.neural-nets (Oha!) and
  1328.     +++++++++++++++++++++++++++++++++++++++++++++++
  1329.       comp.theory.self-org-sys.
  1330.       +++++++++++++++++++++++++
  1331.  
  1332.       There is a periodic posting on comp.ai.neural-nets sent by
  1333.       srctran@world.std.com (Gregory Aharonian) about Neural Network
  1334.       patents. 
  1335.  
  1336.     3. Central Neural System Electronic Bulletin Board
  1337.     ++++++++++++++++++++++++++++++++++++++++++++++++++
  1338.  
  1339.       Modem: 409-737-5222; Sysop: Wesley R. Elsberry; 4160 Pirates'
  1340.       Beach, Galveston, TX 77554; welsberr@orca.tamu.edu. Many
  1341.       MS-DOS PD and shareware simulations, source code, benchmarks,
  1342.       demonstration packages, information files; some Unix, Macintosh,
  1343.       Amiga related files. Also available are files on AI, AI Expert listings
  1344.       1986-1991, fuzzy logic, genetic algorithms, artificial life, evolutionary
  1345.       biology, and many Project Gutenberg and Wiretap etexts. No user fees
  1346.       have ever been charged. Home of the NEURAL_NET Echo, available
  1347.       thrugh FidoNet, RBBS-Net, and other EchoMail compatible bulletin
  1348.       board systems. 
  1349.  
  1350.     4. Neural ftp archive site ftp.funet.fi
  1351.     +++++++++++++++++++++++++++++++++++++++
  1352.  
  1353.       Is administrating a large collection of neural network papers and
  1354.       software at the Finnish University Network file archive site ftp.funet.fi
  1355.       in directory /pub/sci/neural Contains all the public domain software
  1356.       and papers that they have been able to find. All of these files have been
  1357.       transferred from FTP sites in U.S. and are mirrored about every 3
  1358.       months at fastest. Contact: neural-adm@ftp.funet.fi 
  1359.  
  1360.     5. USENET newsgroup comp.org.issnnet
  1361.     ++++++++++++++++++++++++++++++++++++
  1362.  
  1363.       Forum for discussion of academic/student-related issues in NNs, as
  1364.       well as information on ISSNNet (see answer 12) and its activities. 
  1365.  
  1366.     6. AI CD-ROM
  1367.     ++++++++++++
  1368.  
  1369.       Network Cybernetics Corporation produces the "AI CD-ROM". It is
  1370.       an ISO-9660 format CD-ROM and contains a large assortment of
  1371.       software related to artificial intelligence, artificial life, virtual reality,
  1372.       and other topics. Programs for OS/2, MS-DOS, Macintosh, UNIX, and
  1373.       other operating systems are included. Research papers, tutorials, and
  1374.       other text files are included in ASCII, RTF, and other universal
  1375.       formats. The files have been collected from AI bulletin boards, Internet
  1376.       archive sites, University computer deptartments, and other government
  1377.       and civilian AI research organizations. Network Cybernetics
  1378.       Corporation intends to release annual revisions to the AI CD-ROM to
  1379.       keep it up to date with current developments in the field. The AI
  1380.       CD-ROM includes collections of files that address many specific
  1381.       AI/AL topics including Neural Networks (Source code and executables
  1382.       for many different platforms including Unix, DOS, and Macintosh.
  1383.       ANN development tools, example networks, sample data, tutorials. A
  1384.       complete collection of Neural Digest is included as well.) The AI
  1385.       CD-ROM may be ordered directly by check, money order, bank draft,
  1386.       or credit card from: Network Cybernetics Corporation; 4201 Wingren
  1387.       Road Suite 202; Irving, TX 75062-2763; Tel 214/650-2002; Fax
  1388.       214/650-1929; The cost is $129 per disc + shipping ($5/disc domestic
  1389.       or $10/disc foreign) (See the comp.ai FAQ for further details) 
  1390.  
  1391.     7. World Wide Web
  1392.     +++++++++++++++++
  1393.  
  1394.       In World-Wide-Web (WWW, for example via the xmosaic program)
  1395.       you can read neural network information for instance by opening one
  1396.       of the following universal resource locators (URLs): 
  1397.       http://www.neuronet.ph.kcl.ac.uk (NEuroNet, King's College, London),
  1398.       http://www.eeb.ele.tue.nl (Eindhoven, Netherlands), 
  1399.       http://www.msrc.pnl.gov:2080/docs/cie/neural/neural.homepage.html
  1400.       (Richland, Washington), 
  1401.       http://www.cosy.sbg.ac.at/~rschwaig/rschwaig/projects.html (Salzburg,
  1402.       Austria), http://http2.sils.umich.edu/Public/nirg/nirg1.html
  1403.       (Michigan). http://rtm.science.unitn.it/ Reactive Memory Search (Tabu
  1404.       Search) page (Trento, Italy). Many others are available too, changing
  1405.       daily. 
  1406.  
  1407.     8. Neurosciences Internet Resource Guide
  1408.     ++++++++++++++++++++++++++++++++++++++++
  1409.  
  1410.       This document aims to be a guide to existing, free, Internet-accessible
  1411.       resources helpful to neuroscientists of all stripes. An ASCII text
  1412.       version (86K) is available in the Clearinghouse of Subject-Oriented
  1413.       Internet Resource Guides as follows:
  1414.  
  1415.       anonymous FTP, Gopher, WWW Hypertext 
  1416.  
  1417.     9. INTCON mailing list
  1418.     ++++++++++++++++++++++
  1419.  
  1420.       INTCON (Intelligent Control) is a moderated mailing list set up to
  1421.       provide a forum for communication and exchange of ideas among
  1422.       researchers in neuro-control, fuzzy logic control, reinforcement
  1423.       learning and other related subjects grouped under the topic of
  1424.       intelligent control. Send your subscribe requests to 
  1425.       intcon-request@phoenix.ee.unsw.edu.au 
  1426.  
  1427.    ------------------------------------------------------------------------
  1428.  
  1429.  17. A: Freely available software packages for NN simulation?
  1430.  ============================================================
  1431.  
  1432.     1. Rochester Connectionist Simulator
  1433.     ++++++++++++++++++++++++++++++++++++
  1434.  
  1435.       A quite versatile simulator program for arbitrary types of neural nets.
  1436.       Comes with a backprop package and a X11/Sunview interface.
  1437.       Available via anonymous FTP from cs.rochester.edu [192.5.53.209] in
  1438.       directory pub/simulator as the files README (8 KB), 
  1439.       rcs_v4.2.justdoc.tar.Z (1.6 MB, Documentation), rcs_v4.2.justsrc.tar.Z
  1440.       (1.4 MB, Source code), 
  1441.  
  1442.     2. UCLA-SFINX
  1443.     +++++++++++++
  1444.  
  1445.       ftp retina.cs.ucla.edu [131.179.16.6]; Login name: sfinxftp; Password:
  1446.       joshua; directory: pub; files : README; sfinx_v2.0.tar.Z; Email info
  1447.       request : sfinx@retina.cs.ucla.edu 
  1448.  
  1449.     3. NeurDS
  1450.     +++++++++
  1451.  
  1452.       simulator for DEC systems supporting VT100 terminal. available for
  1453.       anonymous ftp from gatekeeper.dec.com [16.1.0.2] in directory:
  1454.       pub/DEC as the file NeurDS031.tar.Z (111 Kb) 
  1455.  
  1456.     4. PlaNet5.7 (formerly known as SunNet)
  1457.     +++++++++++++++++++++++++++++++++++++++
  1458.  
  1459.       A popular connectionist simulator with versions to run under X
  1460.       Windows, and non-graphics terminals created by Yoshiro Miyata
  1461.       (Chukyo Univ., Japan). 60-page User's Guide in Postscript. Send any
  1462.       questions to miyata@sccs.chukyo-u.ac.jp Available for anonymous ftp
  1463.       from ftp.ira.uka.de as /pub/neuron/PlaNet5.7.tar.Z (800 kb) or from
  1464.       boulder.colorado.edu [128.138.240.1] as 
  1465.       /pub/generic-sources/PlaNet5.7.tar.Z 
  1466.  
  1467.     5. GENESIS
  1468.     ++++++++++
  1469.  
  1470.       GENESIS 1.4.2 (GEneral NEural SImulation System) is a general
  1471.       purpose simulation platform which was developed to support the
  1472.       simulation of neural systems ranging from complex models of single
  1473.       neurons to simulations of large networks made up of more abstract
  1474.       neuronal components. Most current GENESIS applications involve
  1475.       realistic simulations of biological neural systems. Although the
  1476.       software can also model more abstract networks, other simulators are
  1477.       more suitable for backpropagation and similar connectionist modeling.
  1478.       Available for ftp with the following procedure: Use 'telnet' to 
  1479.       genesis.bbb.caltech.edu and login as the user "genesis" (no password). If
  1480.       you answer all the questions, an 'ftp' account will automatically be
  1481.       created for you. You can then 'ftp' back to the machine and download
  1482.       the software (about 3 MB). Contact: genesis@cns.caltech.edu. Further
  1483.       information via WWW at http://www.bbb.caltech.edu/GENESIS/. 
  1484.  
  1485.     6. Mactivation
  1486.     ++++++++++++++
  1487.  
  1488.       A neural network simulator for the Apple Macintosh. Available for ftp
  1489.       from ftp.cs.colorado.edu [128.138.243.151] as 
  1490.       /pub/cs/misc/Mactivation-3.3.sea.hqx 
  1491.  
  1492.     7. Cascade Correlation Simulator
  1493.     ++++++++++++++++++++++++++++++++
  1494.  
  1495.       A simulator for Scott Fahlman's Cascade Correlation algorithm.
  1496.       Available for ftp from ftp.cs.cmu.edu [128.2.206.173] in directory
  1497.       /afs/cs/project/connect/code as the file cascor-v1.0.4.shar (218 KB)
  1498.       There is also a version of recurrent cascade correlation in the same
  1499.       directory in file rcc1.c (108 KB). 
  1500.  
  1501.     8. Quickprop
  1502.     ++++++++++++
  1503.  
  1504.       A variation of the back-propagation algorithm developed by Scott
  1505.       Fahlman. A simulator is available in the same directory as the cascade
  1506.       correlation simulator above in file nevprop1.16.shar (137 KB) (see also
  1507.       the description of NEVPROP below) 
  1508.  
  1509.     9. DartNet
  1510.     ++++++++++
  1511.  
  1512.       DartNet is a Macintosh-based backpropagation simulator, developed at
  1513.       Dartmouth by Jamshed Bharucha and Sean Nolan as a pedagogical tool.
  1514.       It makes use of the Mac's graphical interface, and provides a number of
  1515.       tools for building, editing, training, testing and examining networks.
  1516.       This program is available by anonymous ftp from
  1517.       dartvax.dartmouth.edu [129.170.16.4] as /pub/mac/dartnet.sit.hqx (124
  1518.       KB). 
  1519.  
  1520.     10. SNNS
  1521.     ++++++++
  1522.  
  1523.       "Stuttgart Neural Network Simulator" from the University of
  1524.       Stuttgart, Germany. A luxurious simulator for many types of nets; with
  1525.       X11 interface: Graphical 2D and 3D topology editor/visualizer,
  1526.       training visualisation, multiple pattern set handling etc. Currently
  1527.       supports backpropagation (vanilla, online, with momentum term and
  1528.       flat spot elimination, batch, time delay), counterpropagation,
  1529.       quickprop, backpercolation 1, generalized radial basis functions (RBF),
  1530.       RProp, ART1, ART2, ARTMAP, Cascade Correlation, Recurrent
  1531.       Cascade Correlation, Dynamic LVQ, Backpropagation through time
  1532.       (for recurrent networks), batch backpropagation through time (for
  1533.       recurrent networks), Quickpropagation through time (for recurrent
  1534.       networks), Hopfield networks, Jordan and Elman networks,
  1535.       autoassociative memory, self-organizing maps, time-delay networks
  1536.       (TDNN), and is user-extendable (user-defined activation functions,
  1537.       output functions, site functions, learning procedures). Works on
  1538.       SunOS, Solaris, IRIX, Ultrix, AIX, HP/UX, and Linux. Available for
  1539.       ftp from ftp.informatik.uni-stuttgart.de [129.69.211.2] in directory
  1540.       /pub/SNNS as SNNSv3.2.tar.Z (2 MB, Source code) and 
  1541.       SNNSv3.2.Manual.ps.Z (1.4 MB, Documentation). There are also
  1542.       various other files in this directory (e.g. the source version of the
  1543.       manual, a Sun Sparc executable, older versions of the software, some
  1544.       papers, and the software in several smaller parts). It may be best to first
  1545.       have a look at the file SNNSv3.2.Readme (10 kb). This file contains a
  1546.       somewhat more elaborate short description of the simulator. 
  1547.  
  1548.     11. Aspirin/MIGRAINES
  1549.     +++++++++++++++++++++
  1550.  
  1551.       Aspirin/MIGRAINES 6.0 consists of a code generator that builds
  1552.       neural network simulations by reading a network description (written
  1553.       in a language called "Aspirin") and generates a C simulation. An
  1554.       interface (called "MIGRAINES") is provided to export data from the
  1555.       neural network to visualization tools. The system has been ported to a
  1556.       large number of platforms. The goal of Aspirin is to provide a common
  1557.       extendible front-end language and parser for different network
  1558.       paradigms. The MIGRAINES interface is a terminal based interface
  1559.       that allows you to open Unix pipes to data in the neural network. Users
  1560.       can display the data using either public or commercial
  1561.       graphics/analysis tools. Example filters are included that convert data
  1562.       exported through MIGRAINES to formats readable by Gnuplot 3.0,
  1563.       Matlab, Mathematica, and xgobi. The software is available from two
  1564.       FTP sites: from CMU's simulator collection on pt.cs.cmu.edu
  1565.       [128.2.254.155] in /afs/cs/project/connect/code/am6.tar.Z and from
  1566.       UCLA's cognitive science machine ftp.cognet.ucla.edu [128.97.50.19]
  1567.       in /pub/alexis/am6.tar.Z (2 MB). 
  1568.  
  1569.     12. Adaptive Logic Network kit
  1570.     ++++++++++++++++++++++++++++++
  1571.  
  1572.       This package differs from the traditional nets in that it uses logic
  1573.       functions rather than floating point; for many tasks, ALN's can show
  1574.       many orders of magnitude gain in training and performance speed.
  1575.       Anonymous ftp from menaik.cs.ualberta.ca [129.128.4.241] in
  1576.       directory /pub/atree. See the files README (7 KB), atree2.tar.Z (145
  1577.       kb, Unix source code and examples), atree2.ps.Z (76 kb,
  1578.       documentation), a27exe.exe (412 kb, MS-Windows 3.x executable), 
  1579.       atre27.exe (572 kb, MS-Windows 3.x source code). 
  1580.  
  1581.     13. NeuralShell
  1582.     +++++++++++++++
  1583.  
  1584.       Formerly available from FTP site quanta.eng.ohio-state.edu
  1585.       [128.146.35.1] as /pub/NeuralShell/NeuralShell.tar". Currently (April
  1586.       94) not available and undergoing a major reconstruction. Not to be
  1587.       confused with NeuroShell by Ward System Group (see below under
  1588.       commercial software). 
  1589.  
  1590.     14. PDP
  1591.     +++++++
  1592.  
  1593.       The PDP simulator package is available via anonymous FTP at
  1594.       nic.funet.fi [128.214.6.100] as /pub/sci/neural/sims/pdp.tar.Z (202 kb).
  1595.       The simulator is also available with the book "Explorations in Parallel
  1596.       Distributed Processing: A Handbook of Models, Programs, and
  1597.       Exercises" by McClelland and Rumelhart. MIT Press, 1988. Comment:
  1598.       "This book is often referred to as PDP vol III which is a very
  1599.       misleading practice! The book comes with software on an IBM disk but
  1600.       includes a makefile for compiling on UNIX systems. The version of
  1601.       PDP available at ftp.funet.fi seems identical to the one with the book
  1602.       except for a bug in bp.c which occurs when you try to run a script of
  1603.       PDP commands using the DO command. This can be found and fixed
  1604.       easily." 
  1605.  
  1606.     15. Xerion
  1607.     ++++++++++
  1608.  
  1609.       Xerion runs on SGI and Sun machines and uses X Windows for
  1610.       graphics. The software contains modules that implement Back
  1611.       Propagation, Recurrent Back Propagation, Boltzmann Machine, Mean
  1612.       Field Theory, Free Energy Manipulation, Hard and Soft Competitive
  1613.       Learning, and Kohonen Networks. Sample networks built for each of
  1614.       the modules are also included. Contact: xerion@ai.toronto.edu. Xerion
  1615.       is available via anonymous ftp from ftp.cs.toronto.edu [128.100.1.105]
  1616.       in directory /pub/xerion as xerion-3.1.ps.Z (153 kB) and 
  1617.       xerion-3.1.tar.Z (1.3 MB) plus several concrete simulators built with
  1618.       xerion (about 40 kB each). 
  1619.  
  1620.     16. Neocognitron simulator
  1621.     ++++++++++++++++++++++++++
  1622.  
  1623.       The simulator is written in C and comes with a list of references which
  1624.       are necessary to read to understand the specifics of the implementation.
  1625.       The unsupervised version is coded without (!) C-cell inhibition.
  1626.       Available for anonymous ftp from unix.hensa.ac.uk [129.12.21.7] in 
  1627.       /pub/neocognitron.tar.Z (130 kB). 
  1628.  
  1629.     17. Multi-Module Neural Computing Environment (MUME)
  1630.     ++++++++++++++++++++++++++++++++++++++++++++++++++++
  1631.  
  1632.       MUME is a simulation environment for multi-modules neural
  1633.       computing. It provides an object oriented facility for the simulation
  1634.       and training of multiple nets with various architectures and learning
  1635.       algorithms. MUME includes a library of network architectures
  1636.       including feedforward, simple recurrent, and continuously running
  1637.       recurrent neural networks. Each architecture is supported by a variety
  1638.       of learning algorithms. MUME can be used for large scale neural
  1639.       network simulations as it provides support for learning in multi-net
  1640.       environments. It also provide pre- and post-processing facilities. The
  1641.       modules are provided in a library. Several "front-ends" or clients are
  1642.       also available. X-Window support by editor/visualization tool
  1643.       Xmume. MUME can be used to include non-neural computing
  1644.       modules (decision trees, ...) in applications. MUME is available
  1645.       anonymous ftp on mickey.sedal.su.oz.au [129.78.24.170] after signing
  1646.       and sending a licence: /pub/license.ps (67 kb). Contact: Marwan Jabri,
  1647.       SEDAL, Sydney University Electrical Engineering, NSW 2006
  1648.       Australia, marwan@sedal.su.oz.au 
  1649.  
  1650.     18. LVQ_PAK, SOM_PAK
  1651.     ++++++++++++++++++++
  1652.  
  1653.       These are packages for Learning Vector Quantization and
  1654.       Self-Organizing Maps, respectively. They have been built by the
  1655.       LVQ/SOM Programming Team of the Helsinki University of
  1656.       Technology, Laboratory of Computer and Information Science,
  1657.       Rakentajanaukio 2 C, SF-02150 Espoo, FINLAND There are versions
  1658.       for Unix and MS-DOS available from cochlea.hut.fi [130.233.168.48]
  1659.       as /pub/lvq_pak/lvq_pak-2.1.tar.Z (340 kB, Unix sources), 
  1660.       /pub/lvq_pak/lvq_p2r1.exe (310 kB, MS-DOS self-extract archive), 
  1661.       /pub/som_pak/som_pak-1.2.tar.Z (251 kB, Unix sources), 
  1662.       /pub/som_pak/som_p1r2.exe (215 kB, MS-DOS self-extract archive).
  1663.       (further programs to be used with SOM_PAK and LVQ_PAK can be
  1664.       found in /pub/utils). 
  1665.  
  1666.     19. SESAME
  1667.     ++++++++++
  1668.  
  1669.       ("Software Environment for the Simulation of Adaptive Modular
  1670.       Systems") SESAME is a prototypical software implementation which
  1671.       facilitates 
  1672.        o Object-oriented building blocks approach. 
  1673.        o Contains a large set of C++ classes useful for neural nets,
  1674.          neurocontrol and pattern recognition. No C++ classes can be
  1675.          used as stand alone, though! 
  1676.        o C++ classes include CartPole, nondynamic two-robot arms,
  1677.          Lunar Lander, Backpropagation, Feature Maps, Radial Basis
  1678.          Functions, TimeWindows, Fuzzy Set Coding, Potential Fields,
  1679.          Pandemonium, and diverse utility building blocks. 
  1680.        o A kernel which is the framework for the C++ classes and allows
  1681.          run-time manipulation, construction, and integration of
  1682.          arbitrary complex and hybrid experiments. 
  1683.        o Currently no graphic interface for construction, only for
  1684.          visualization. 
  1685.        o Platform is SUN4, XWindows 
  1686.       Unfortunately no reasonable good introduction has been written until
  1687.       now. We hope to have something soon. For now we provide papers (eg.
  1688.       NIPS-92), a reference manual (>220 pages), source code (ca. 35.000
  1689.       lines of code), and a SUN4-executable by ftp only. Sesame and its
  1690.       description is available in various files for anonymous ftp on ftp
  1691.       ftp.gmd.de in the directories /gmd/as/sesame and /gmd/as/paper.
  1692.       Questions to sesame-request@gmd.de; there is only very limited
  1693.       support available. 
  1694.  
  1695.     20. Nevada Backpropagation (NevProp)
  1696.     ++++++++++++++++++++++++++++++++++++
  1697.  
  1698.       NevProp is a free, easy-to-use feedforward backpropagation
  1699.       (multilayer perceptron) program. It uses an interactive character-based
  1700.       interface, and is distributed as C source code that should compile and
  1701.       run on most platforms. (Precompiled executables are available for
  1702.       Macintosh and DOS.) The original version was Quickprop 1.0 by Scott
  1703.       Fahlman, as translated from Common Lisp by Terry Regier. We added
  1704.       early-stopped training based on a held-out subset of data, c index
  1705.       (ROC curve area) calculation, the ability to force gradient descent
  1706.       (per-epoch or per-pattern), and additional options. FEATURES
  1707.       (NevProp version 1.16): UNLIMITED (except by machine memory)
  1708.       number of input PATTERNS; UNLIMITED number of input, hidden,
  1709.       and output UNITS; Arbitrary CONNECTIONS among the various
  1710.       layers' units; Clock-time or user-specified RANDOM SEED for
  1711.       initial random weights; Choice of regular GRADIENT DESCENT or
  1712.       QUICKPROP; Choice of PER-EPOCH or PER-PATTERN
  1713.       (stochastic) weight updating; GENERALIZATION to a test dataset;
  1714.       AUTOMATICALLY STOPPED TRAINING based on generalization;
  1715.       RETENTION of best-generalizing weights and predictions; Simple
  1716.       but useful GRAPHIC display to show smoothness of generalization;
  1717.       SAVING of results to a file while working interactively; SAVING of
  1718.       weights file and reloading for continued training; PREDICTION-only
  1719.       on datasets by applying an existing weights file; In addition to RMS
  1720.       error, the concordance, or c index is displayed. The c index (area under
  1721.       the ROC curve) shows the correctness of the RELATIVE ordering of
  1722.       predictions AMONG the cases; ie, it is a measure of discriminative
  1723.       power of the model. AVAILABILITY: The most updated version of
  1724.       NevProp will be made available by anonymous ftp from the University
  1725.       of Nevada, Reno: On ftp.scs.unr.edu [134.197.10.130] in the directory
  1726.       "pub/goodman/nevpropdir", e.g. README.FIRST (45 kb) or 
  1727.       nevprop1.16.shar (138 kb). VERSION 2 to be released in Spring of
  1728.       1994 -- some of the new features: more flexible file formatting
  1729.       (including access to external data files; option to prerandomize data
  1730.       order; randomized stochastic gradient descent; option to rescale
  1731.       predictor (input) variables); linear output units as an alternative to
  1732.       sigmoidal units for use with continuous-valued dependent variables
  1733.       (output targets); cross-entropy (maximum likelihood) criterion
  1734.       function as an alternative to square error for use with categorical
  1735.       dependent variables (classification/symbolic/nominal targets); and
  1736.       interactive interrupt to change settings on-the-fly. Limited support is
  1737.       available from Phil Goodman (goodman@unr.edu), University of
  1738.       Nevada Center for Biomedical Research. 
  1739.  
  1740.     21. Fuzzy ARTmap
  1741.     ++++++++++++++++
  1742.  
  1743.       This is just a small example program. Available for anonymous ftp
  1744.       from park.bu.edu [128.176.121.56] /pub/fuzzy-artmap.tar.Z (44 kB). 
  1745.  
  1746.     22. PYGMALION
  1747.     +++++++++++++
  1748.  
  1749.       This is a prototype that stems from an ESPRIT project. It implements
  1750.       back-propagation, self organising map, and Hopfield nets. Avaliable
  1751.       for ftp from ftp.funet.fi [128.214.248.6] as 
  1752.       /pub/sci/neural/sims/pygmalion.tar.Z (1534 kb). (Original site is
  1753.       imag.imag.fr: archive/pygmalion/pygmalion.tar.Z). 
  1754.  
  1755.     23. Basis-of-AI-backprop
  1756.     ++++++++++++++++++++++++
  1757.  
  1758.       Earlier versions have been posted in comp.sources.misc and people
  1759.       around the world have used them and liked them. This package is free
  1760.       for ordinary users but shareware for businesses and government
  1761.       agencies ($200/copy, but then for this you get the professional version
  1762.       as well). I do support this package via email. Some of the highlights
  1763.       are: 
  1764.        o in C for UNIX and DOS and DOS binaries 
  1765.        o gradient descent, delta-bar-delta and quickprop 
  1766.        o extra fast 16-bit fixed point weight version as well as a
  1767.          conventional floating point version 
  1768.        o recurrent networks 
  1769.        o numerous sample problems 
  1770.       Available for ftp from ftp.mcs.com in directory /mcsnet.users/drt. Or
  1771.       see the WWW page http://www.mcs.com/~drt/home.html. The
  1772.       expanded professional version is $30/copy for ordinary individuals
  1773.       including academics and $200/copy for businesses and government
  1774.       agencies (improved user interface, more activation functions, networks
  1775.       can be read into your own programs, dynamic node creation, weight
  1776.       decay, SuperSAB). More details can be found in the documentation for
  1777.       the student version. Contact: Don Tveter; 5228 N. Nashville Ave.;
  1778.       Chicago, Illinois 60656; drt@mcs.com 
  1779.  
  1780.     24. Matrix Backpropagation
  1781.     ++++++++++++++++++++++++++
  1782.  
  1783.       MBP (Matrix Back Propagation) is a very efficient implementation of
  1784.       the back-propagation algorithm for current-generation workstations.
  1785.       The algorithm includes a per-epoch adaptive technique for gradient
  1786.       descent. All the computations are done through matrix multiplications
  1787.       and make use of highly optimized C code. The goal is to reach almost
  1788.       peak-performances on RISCs with superscalar capabilities and fast
  1789.       caches. On some machines (and with large networks) a 30-40x
  1790.       speed-up can be measured with respect to conventional
  1791.       implementations. The software is available by anonymous ftp from
  1792.       risc6000.dibe.unige.it [130.251.89.154] as /pub/MBPv1.1.tar.Z (Unix
  1793.       version), /pub/MBPv11.zip.Z (MS-DOS version), /pub/mpbv11.ps
  1794.       (Documentation). For more information, contact Davide Anguita
  1795.       (anguita@dibe.unige.it). 
  1796.  
  1797.     25. WinNN
  1798.     +++++++++
  1799.  
  1800.       WinNN is a shareware Neural Networks (NN) package for windows
  1801.       3.1. WinNN incorporates a very user friendly interface with a
  1802.       powerful computational engine. WinNN is intended to be used as a tool
  1803.       for beginners and more advanced neural networks users, it provides an
  1804.       alternative to using more expensive and hard to use packages. WinNN
  1805.       can implement feed forward multi-layered NN and uses a modified
  1806.       fast back-propagation for training. Extensive on line help. Has various
  1807.       neuron functions. Allows on the fly testing of the network performance
  1808.       and generalization. All training parameters can be easily modified
  1809.       while WinNN is training. Results can be saved on disk or copied to the
  1810.       clipboard. Supports plotting of the outputs and weight distribution.
  1811.       Available for ftp from winftp.cica.indiana.edu as 
  1812.       /pub/pc/win3/programr/winnn093.zip (545 kB). 
  1813.  
  1814.     26. BIOSIM
  1815.     ++++++++++
  1816.  
  1817.       BIOSIM is a biologically oriented neural network simulator. Public
  1818.       domain, runs on Unix (less powerful PC-version is available, too), easy
  1819.       to install, bilingual (german and english), has a GUI (Graphical User
  1820.       Interface), designed for research and teaching, provides online help
  1821.       facilities, offers controlling interfaces, batch version is available, a
  1822.       DEMO is provided. REQUIREMENTS (Unix version): X11 Rel. 3 and
  1823.       above, Motif Rel 1.0 and above, 12 MB of physical memory,
  1824.       recommended are 24 MB and more, 20 MB disc space.
  1825.       REQUIREMENTS (PC version): PC-compatible with MS Windows
  1826.       3.0 and above, 4 MB of physical memory, recommended are 8 MB and
  1827.       more, 1 MB disc space. Four neuron models are implemented in
  1828.       BIOSIM: a simple model only switching ion channels on and off, the
  1829.       original Hodgkin-Huxley model, the SWIM model (a modified HH
  1830.       model) and the Golowasch-Buchholz model. Dendrites consist of a
  1831.       chain of segments without bifurcation. A neural network can be created
  1832.       by using the interactive network editor which is part of BIOSIM.
  1833.       Parameters can be changed via context sensitive menus and the results
  1834.       of the simulation can be visualized in observation windows for neurons
  1835.       and synapses. Stochastic processes such as noise can be included. In
  1836.       addition, biologically orientied learning and forgetting processes are
  1837.       modeled, e.g. sensitization, habituation, conditioning, hebbian learning
  1838.       and competitive learning. Three synaptic types are predefined (an
  1839.       excitatatory synapse type, an inhibitory synapse type and an electrical
  1840.       synapse). Additional synaptic types can be created interactively as
  1841.       desired. Available for ftp from ftp.uni-kl.de in directory
  1842.       /pub/bio/neurobio: Get /pub/bio/neurobio/biosim.readme (2 kb) and 
  1843.       /pub/bio/neurobio/biosim.tar.Z (2.6 MB) for the Unix version or 
  1844.       /pub/bio/neurobio/biosimpc.readme (2 kb) and 
  1845.       /pub/bio/neurobio/biosimpc.zip (150 kb) for the PC version. Contact:
  1846.       Stefan Bergdoll; Department of Software Engineering (ZXA/US);
  1847.       BASF Inc.; D-67056 Ludwigshafen; Germany;
  1848.       bergdoll@zxa.basf-ag.de; phone 0621-60-21372; fax 0621-60-43735 
  1849.  
  1850.     27. The Brain
  1851.     +++++++++++++
  1852.  
  1853.       The Brain is an advanced neural network simulator for PCs that is
  1854.       simple enough to be used by non-technical people, yet sophisticated
  1855.       enough for serious research work. It is based upon the backpropagation
  1856.       learning algorithm. Three sample networks are included. The
  1857.       documentation included provides you with an introduction and
  1858.       overview of the concepts and applications of neural networks as well as
  1859.       outlining the features and capabilities of The Brain. The Brain requires
  1860.       512K memory and MS-DOS or PC-DOS version 3.20 or later
  1861.       (versions for other OS's and machines are available). A 386 (with
  1862.       maths coprocessor) or higher is recommended for serious use of The
  1863.       Brain. Shareware payment required. Demo version is restricted to
  1864.       number of units the network can handle due to memory contraints on
  1865.       PC's. Registered version allows use of extra memory. External
  1866.       documentation included: 39Kb, 20 Pages. Source included: No (Source
  1867.       comes with registration). Available via anonymous ftp from
  1868.       ftp.tu-clausthal.de as /pub/msdos/science/brain12.zip (78 kb) and from
  1869.       ftp.technion.ac.il as /pub/contrib/dos/brain12.zip (78 kb) Contact:
  1870.       David Perkovic; DP Computing; PO Box 712; Noarlunga Center SA
  1871.       5168; Australia; Email: dip@mod.dsto.gov.au (preferred) or
  1872.       dpc@mep.com or perkovic@cleese.apana.org.au 
  1873.  
  1874.     28. FuNeGen 1.0
  1875.     +++++++++++++++
  1876.  
  1877.       FuNeGen is a MLP based software program to generate fuzzy rule
  1878.       based classifiers. A limited version (maximum of 7 inputs and 3
  1879.       membership functions for each input) for PCs is available for
  1880.       anonymous ftp from obelix.microelectronic.e-technik.th-darmstadt.de
  1881.       in directory /pub/neurofuzzy. For further information see the file 
  1882.       read.me. Contact: Saman K. Halgamuge 
  1883.  
  1884.     29. NeuDL -- Neural-Network Description Language
  1885.     ++++++++++++++++++++++++++++++++++++++++++++++++
  1886.  
  1887.       NeuDL is a description language for the design, training, and operation
  1888.       of neural networks. It is currently limited to the backpropagation
  1889.       neural-network model; however, it offers a great deal of flexibility.
  1890.       For example, the user can explicitly specify the connections between
  1891.       nodes and can create or destroy connections dynamically as training
  1892.       progresses. NeuDL is an interpreted language resembling C or C++. It
  1893.       also has instructions dealing with training/testing set manipulation as
  1894.       well as neural network operation. A NeuDL program can be run in
  1895.       interpreted mode or it can be automatically translated into C++ which
  1896.       can be compiled and then executed. The NeuDL interpreter is written
  1897.       in C++ and can be easly extended with new instructions. NeuDL is
  1898.       available from the anonymous ftp site at The University of Alabama:
  1899.       cs.ua.edu (130.160.44.1) in the file /pub/neudl/NeuDLver021.tar. The
  1900.       tarred file contains the interpreter source code (in C++) a user manual,
  1901.       a paper about NeuDL, and about 25 sample NeuDL programs. A
  1902.       document demonstrating NeuDL's capabilities is also available from
  1903.       the ftp site: /pub/neudl/NeuDL/demo.doc /pub/neudl/demo.doc. For
  1904.       more information contact the author: Joey Rogers
  1905.       (jrogers@buster.eng.ua.edu). 
  1906.  
  1907.     30. NeoC Explorer (Pattern Maker included)
  1908.     ++++++++++++++++++++++++++++++++++++++++++
  1909.  
  1910.       The NeoC software is an implementation of Fukushima's
  1911.       Neocognitron neural network. Its purpose is to test the model and to
  1912.       facilitate interactivity for the experiments. Some substantial features:
  1913.       GUI, explorer and tester operation modes, recognition statistics,
  1914.       performance analysis, elements displaying, easy net construction.
  1915.       PLUS, a pattern maker utility for testing ANN: GUI, text file output,
  1916.       transformations. Available for anonymous FTP from
  1917.       OAK.Oakland.Edu (141.210.10.117) as 
  1918.       /SimTel/msdos/neurlnet/neocog10.zip (193 kB, DOS version) 
  1919.  
  1920.    For some of these simulators there are user mailing lists. Get the packages and
  1921.    look into their documentation for further info.
  1922.  
  1923.    If you are using a small computer (PC, Mac, etc.) you may want to have a look
  1924.    at the Central Neural System Electronic Bulletin Board (see answer 13).
  1925.    Modem: 409-737-5312; Sysop: Wesley R. Elsberry; 4160 Pirates' Beach,
  1926.    Galveston, TX, USA; welsberr@orca.tamu.edu. There are lots of small
  1927.    simulator packages, the CNS ANNSIM file set. There is an ftp mirror site for
  1928.    the CNS ANNSIM file set at me.uta.edu [129.107.2.20] in the /pub/neural
  1929.    directory. Most ANN offerings are in /pub/neural/annsim. 
  1930.  
  1931.    ------------------------------------------------------------------------
  1932.  
  1933.  18. A: Commercial software packages for NN simulation?
  1934.  ======================================================
  1935.  
  1936.     1. nn/xnn
  1937.     +++++++++
  1938.  
  1939.            Name: nn/xnn
  1940.         Company: Neureka ANS
  1941.         Address: Klaus Hansens vei 31B
  1942.                  5037 Solheimsviken
  1943.                  NORWAY
  1944.           Phone:   +47-55544163 / +47-55201548
  1945.           Email:   arnemo@eik.ii.uib.no
  1946.         Basic capabilities:
  1947.          Neural network development tool. nn is a language for specification of
  1948.          neural network simulators. Produces C-code and executables for the
  1949.          specified models, therefore ideal for application development. xnn is
  1950.          a graphical front-end to nn and the simulation code produced by nn.
  1951.          Gives graphical representations in a number of formats of any
  1952.          variables during simulation run-time. Comes with a number of
  1953.          pre-implemented models, including: Backprop (several variants), Self
  1954.          Organizing Maps, LVQ1, LVQ2, Radial Basis Function Networks,
  1955.          Generalized Regression Neural Networks, Jordan nets, Elman nets,
  1956.          Hopfield, etc.
  1957.         Operating system: nn: UNIX or MS-DOS, xnn: UNIX/X-windows
  1958.         System requirements: 10 Mb HD, 2 Mb RAM
  1959.         Approx. price: USD 2000,-
  1960.  
  1961.     2. BrainMaker
  1962.     +++++++++++++
  1963.  
  1964.               Name: BrainMaker, BrainMaker Pro
  1965.            Company: California Scientific Software
  1966.            Address: 10024 Newtown rd, Nevada City, CA, 95959 USA
  1967.          Phone,Fax: 916 478 9040, 916 478 9041
  1968.              Email:  calsci!mittmann@gvgpsa.gvg.tek.com (flakey connection)
  1969.         Basic capabilities:  train backprop neural nets
  1970.         Operating system:   DOS, Windows, Mac
  1971.         System requirements:
  1972.         Uses XMS or EMS for large models(PCs only): Pro version
  1973.         Approx. price:  $195, $795
  1974.  
  1975.         BrainMaker Pro 3.0 (DOS/Windows)     $795
  1976.             Gennetic Training add-on         $250
  1977.           ainMaker 3.0 (DOS/Windows/Mac)     $195
  1978.             Network Toolkit add-on           $150
  1979.         BrainMaker 2.5 Student version       (quantity sales only, about $38 each)
  1980.  
  1981.         BrainMaker Pro C30 Accelerator Board
  1982.                   w/ 5Mb memory              $9750
  1983.                   w/32Mb memory              $13,000
  1984.  
  1985.         Intel iNNTS NN Development System    $11,800
  1986.              Intel EMB Multi-Chip Board      $9750
  1987.              Intel 80170 chip set            $940
  1988.  
  1989.         Introduction To Neural Networks book $30
  1990.  
  1991.         California Scientific Software can be reached at:
  1992.         Phone: 916 478 9040     Fax: 916 478 9041    Tech Support: 916 478 9035
  1993.         Mail: 10024 newtown rd, Nevada City, CA, 95959, USA
  1994.         30 day money back guarantee, and unlimited free technical support.
  1995.         BrainMaker package includes:
  1996.          The book Introduction to Neural Networks
  1997.          BrainMaker Users Guide and reference manual
  1998.              300 pages , fully indexed, with tutorials, and sample networks
  1999.          Netmaker
  2000.              Netmaker makes building and training Neural Networks easy, by
  2001.              importing and automatically creating BrainMaker's Neural Network
  2002.              files.  Netmaker imports Lotus, Excel, dBase, and ASCII files.
  2003.          BrainMaker
  2004.              Full menu and dialog box interface, runs Backprop at 750,000 cps
  2005.              on a 33Mhz 486.
  2006.         ---Features ("P" means is avaliable in professional version only):
  2007.         Pull-down Menus, Dialog Boxes, Programmable Output Files,
  2008.         Editing in BrainMaker,  Network Progress Display (P),
  2009.         Fact Annotation,  supports many printers,  NetPlotter,
  2010.         Graphics Built In (P),  Dynamic Data Exchange (P),
  2011.         Binary Data Mode, Batch Use Mode (P), EMS and XMS Memory (P),
  2012.         Save Network Periodically,  Fastest Algorithms,
  2013.         512 Neurons per Layer (P: 32,000), up to 8 layers,
  2014.         Specify Parameters by Layer (P), Recurrence Networks (P),
  2015.         Prune Connections and Neurons (P),  Add Hidden Neurons In Training,
  2016.         Custom Neuron Functions,  Testing While Training,
  2017.         Stop training when...-function (P),  Heavy Weights (P),
  2018.         Hypersonic Training,  Sensitivity Analysis (P),  Neuron Sensitivity (P),
  2019.         Global Network Analysis (P),  Contour Analysis (P),
  2020.         Data Correlator (P),  Error Statistics Report,
  2021.         Print or Edit Weight Matrices,  Competitor (P), Run Time System (P),
  2022.         Chip Support for Intel, American Neurologics, Micro Devices,
  2023.         Genetic Training Option (P),  NetMaker,  NetChecker,
  2024.         Shuffle,  Data Import from Lotus, dBASE, Excel, ASCII, binary,
  2025.         Finacial Data (P),  Data Manipulation,  Cyclic Analysis (P),
  2026.         User's Guide quick start booklet,
  2027.         Introduction to Neural Networks 324 pp book
  2028.  
  2029.     3. SAS Software/ Neural Net add-on
  2030.     ++++++++++++++++++++++++++++++++++
  2031.  
  2032.              Name: SAS Software
  2033.           Company: SAS Institute, Inc.
  2034.           Address: SAS Campus Drive, Cary, NC 27513, USA
  2035.         Phone,Fax: (919) 677-8000
  2036.             Email: saswss@unx.sas.com (Neural net inquiries only)
  2037.  
  2038.        Basic capabilities:
  2039.          Feedforward nets with numerous training methods
  2040.          and loss functions, plus statistical analogs of
  2041.          counterpropagation and various unsupervised
  2042.          architectures
  2043.        Operating system: Lots
  2044.        System requirements: Lots
  2045.        Uses XMS or EMS for large models(PCs only): Runs under Windows, OS/2
  2046.        Approx. price: Free neural net software, but you have to license
  2047.                       SAS/Base software and preferably the SAS/OR, SAS/ETS,
  2048.                       and/or SAS/STAT products.
  2049.        Comments: Oriented toward data analysis and statistical applications
  2050.  
  2051.     4. NeuralWorks
  2052.     ++++++++++++++
  2053.  
  2054.            Name: NeuralWorks Professional II Plus (from NeuralWare)
  2055.         Company: NeuralWare Inc.
  2056.          Adress: Pittsburgh, PA 15276-9910
  2057.           Phone: (412) 787-8222
  2058.             FAX: (412) 787-8220
  2059.  
  2060.        Distributor for Europe: 
  2061.          Scientific Computers GmbH.
  2062.          Franzstr. 107, 52064 Aachen
  2063.          Germany
  2064.          Tel.   (49) +241-26041
  2065.          Fax.   (49) +241-44983
  2066.          Email. info@scientific.de
  2067.  
  2068.        Basic capabilities:
  2069.          supports over 30 different nets: backprop, art-1,kohonen, 
  2070.          modular neural network, General regression, Fuzzy art-map,
  2071.          probabilistic nets, self-organizing map, lvq, boltmann,
  2072.          bsb, spr, etc...
  2073.          Extendable with optional package. 
  2074.          ExplainNet, Flashcode (compiles net in .c code for runtime),
  2075.          user-defined io in c possible. ExplainNet (to eliminate 
  2076.          extra inputs), pruning, savebest,graph.instruments like 
  2077.          correlation, hinton diagrams, rms error graphs etc..
  2078.        Operating system   : PC,Sun,IBM RS6000,Apple Macintosh,SGI,Dec,HP.
  2079.        System requirements: varies. PC:2MB extended memory+6MB Harddisk space.
  2080.                             Uses windows compatible memory driver (extended).
  2081.                             Uses extended memory.
  2082.        Approx. price      : call (depends on platform)
  2083.        Comments           : award winning documentation, one of the market
  2084.                             leaders in NN software.
  2085.  
  2086.     5. MATLAB Neural Network Toolbox (for use with Matlab 4.x)
  2087.     ++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
  2088.  
  2089.          Contact: The MathWorks, Inc.     Phone: 508-653-1415
  2090.                   24 Prime Park Way       FAX: 508-653-2997
  2091.                   Natick, MA 01760 email: info@mathworks.com
  2092.  
  2093.       The Neural Network Toolbox is a powerful collection of MATLAB
  2094.       functions for the design, training, and simulation of neural networks. It
  2095.       supports a wide range of network architectures with an unlimited
  2096.       number of processing elements and interconnections (up to operating
  2097.       system constraints). Supported architectures and training methods
  2098.       include: supervised training of feedforward networks using the
  2099.       perceptron learning rule, Widrow-Hoff rule, several variations on
  2100.       backpropagation (including the fast Levenberg-Marquardt algorithm),
  2101.       and radial basis networks; supervised training of recurrent Elman
  2102.       networks; unsupervised training of associative networks including
  2103.       competitive and feature map layers; Kohonen networks,
  2104.       self-organizing maps, and learning vector quantization. The Neural
  2105.       Network Toolbox contains a textbook-quality Users' Guide, uses
  2106.       tutorials, reference materials and sample applications with code
  2107.       examples to explain the design and use of each network architecture
  2108.       and paradigm. The Toolbox is delivered as MATLAB M-files,
  2109.       enabling users to see the algorithms and implementations, as well as to
  2110.       make changes or create new functions to address a specific application.
  2111.  
  2112.       (Comment by Richard Andrew Miles Outerbridge,
  2113.       RAMO@UVPHYS.PHYS.UVIC.CA:) Matlab is spreading like
  2114.       hotcakes (and the educational discounts are very impressive). The
  2115.       newest release of Matlab (4.0) ansrwers the question "if you could only
  2116.       program in one language what would it be?". The neural network
  2117.       toolkit is worth getting for the manual alone. Matlab is available with
  2118.       lots of other toolkits (signal processing, optimization, etc.) but I don't
  2119.       use them much - the main package is more than enough. The nice thing
  2120.       about the Matlab approach is that you can easily interface the neural
  2121.       network stuff with anything else you are doing. 
  2122.  
  2123.     6. Propagator
  2124.     +++++++++++++
  2125.  
  2126.         Contact: ARD Corporation,
  2127.                  9151 Rumsey Road, Columbia, MD  21045, USA
  2128.                  propagator@ard.com
  2129.         Easy to use neural network training package.  A GUI implementation of
  2130.         backpropagation networks with five layers (32,000 nodes per layer).
  2131.         Features dynamic performance graphs, training with a validation set,
  2132.         and C/C++ source code generation.
  2133.         For Sun (Solaris 1.x & 2.x, $499),
  2134.             PC  (Windows 3.x, $199)
  2135.             Mac (System 7.x, $199)
  2136.         Floating point coprocessor required, Educational Discount,
  2137.         Money Back Guarantee, Muliti User Discount
  2138.         Windows Demo on:
  2139.           nic.funet.fi        /pub/msdos/windows/demo
  2140.           oak.oakland.edu     /pub/msdos/neural_nets
  2141.               gatordem.zip    pkzip 2.04g archive file
  2142.               gatordem.txt    readme text file
  2143.  
  2144.     7. NeuroForecaster
  2145.     ++++++++++++++++++
  2146.  
  2147.          Name:    NeuroForecaster(TM)/Genetica 3.1
  2148.          Contact: Accel Infotech (S) Pte Ltd; 648 Geylang Road;
  2149.                   Republic of Singapore 1438; Phone: +65-7446863; Fax: +65-7492467
  2150.                   accel@solomon.technet.sg
  2151.          For IBM PC 386/486 with mouse, or compatibles MS Windows* 3.1,
  2152.          MS DOS 5.0 or above 4 MB RAM, 5 MB available harddisk space min;
  2153.          3.5 inch floppy drive, VGA monitor or above, Math coprocessor recommended.
  2154.            Neuroforecaster 3.1 for Windows is priced at US$1199 per single user
  2155.          license.  Please email us (accel@solomon.technet.sg) for order form. 
  2156.            More information about NeuroForecaster(TM)/Genetical may be found in 
  2157.          ftp://ftp.technet.sg/Technet/user/accel/nfga40.exe
  2158.            NeuroForecaster is a user-friendly neural network program specifically
  2159.          designed for building sophisticated and powerful forecasting and
  2160.          decision-support systems (Time-Series Forecasting, Cross-Sectional
  2161.          Classification, Indicator Analysis)
  2162.          Features:
  2163.          * GENETICA Net Builder Option for automatic network optimization
  2164.          * 12 Neuro-Fuzzy Network Models      
  2165.          * Multitasking & Background Training Mode            
  2166.          * Unlimited Network Capacity         
  2167.          * Rescaled Range Analysis & Hurst Exponent to Unveil Hidden Market
  2168.            Cycles & Check for Predictability  
  2169.          * Correlation Analysis to Compute Correlation Factors to Analyze the 
  2170.            Significance of Indicators                 
  2171.          * Weight Histogram to Monitor the Progress of Learning
  2172.          * Accumulated Error Analysis to Analyze the Strength of Input Indicators     
  2173.          Its user-friendly interface allows the users to build applications quickly, 
  2174.          easily and interactively, analyze the data visually and see the results 
  2175.          immediately.  
  2176.          The following example applications are included in the package:
  2177.          * Credit Rating - for generating the credit rating of bank loan
  2178.            applications.
  2179.          * Stock market 6 monthly returns forecast
  2180.          * Stock selection based on company ratios
  2181.          * US$ to Deutschmark exchange rate forecast
  2182.          * US$ to Yen exchange rate forecast
  2183.          * US$ to SGD exchange rate forecast
  2184.          * Property price valuation
  2185.          * XOR - a classical problem to show the results are better than others
  2186.          * Chaos - Prediction of Mackey-Glass chaotic time series
  2187.          * SineWave - For demonstrating the power of Rescaled Range Analysis and
  2188.            significance of window size
  2189.          Techniques Implemented:
  2190.          * GENETICA Net Builder Option - network creation & optimization based on
  2191.            Darwinian evolution theory
  2192.          * Backprop Neural Networks - the most widely-used training algorithm
  2193.          * Fastprop Neural Networks - speeds up training of large problems
  2194.          * Radial Basis Function Networks - best for pattern classification problems
  2195.          * Neuro-Fuzzy Network
  2196.          * Rescaled Range Analysis - computes Hurst exponents to unveil hidden
  2197.            cycles & check for predictability
  2198.          * Correlation Analysis - to identify significant input indicators
  2199.  
  2200.     8. Products of NESTOR, Inc.
  2201.     +++++++++++++++++++++++++++
  2202.  
  2203.       530 Fifth Avenue; New York, NY 10036; USA; Tel.:
  2204.       001-212-398-7955
  2205.  
  2206.       Founders: Dr. Leon Cooper (having a Nobel Price) and Dr. Charles
  2207.       Elbaum (Brown University). Neural Network Models: Adaptive shape
  2208.       and pattern recognition (Restricted Coulomb Energy - RCE) developed
  2209.       by NESTOR is one of the most powerfull Neural Network Model used
  2210.       in a later products. The basis for NESTOR products is the Nestor
  2211.       Learning System - NLS. Later are developed: Character Learning
  2212.       System - CLS and Image Learning System - ILS. Nestor Development
  2213.       System - NDS is a development tool in Standard C - one of the most
  2214.       powerfull PC-Tools for simulation and development of Neural
  2215.       Networks. NLS is a multi-layer, feed forward system with low
  2216.       connectivity within each layer and no relaxation procedure used for
  2217.       determining an output response. This unique architecture allows the
  2218.       NLS to operate in real time without the need for special computers or
  2219.       custom hardware. NLS is composed of multiple neural networks, each
  2220.       specializing in a subset of information about the input patterns. The
  2221.       NLS integrates the responses of its several parallel networks to produce
  2222.       a system response that is far superior to that of other neural networks.
  2223.       Minimized connectivity within each layer results in rapid training and
  2224.       efficient memory utilization- ideal for current VLSI technology. Intel
  2225.       has made such a chip - NE1000. 
  2226.  
  2227.     9. NeuroShell2/NeuroWindows
  2228.     +++++++++++++++++++++++++++
  2229.  
  2230.       NeuroShell 2 combines powerful neural network architectures, a
  2231.       Windows icon driven user interface, and sophisticated utilities for
  2232.       MS-Windows machines. Internal format is spreadsheet, and users can
  2233.       specify that NeuroShell 2 use their own spreadsheet when editing.
  2234.       Includes both Beginner's and Advanced systems, a Runtime capability,
  2235.       and a choice of 15 Backpropagation, Kohonen, PNN and GRNN
  2236.       architectures. Includes Rules, Symbol Translate, Graphics, File
  2237.       Import/Export modules (including MetaStock from Equis
  2238.       International) and NET-PERFECT to prevent overtraining. Options
  2239.       available: Market Technical Indicator Option ($295), Market Technical
  2240.       Indicator Option with Optimizer ($590), and Race Handicapping
  2241.       Option ($149). NeuroShell price: $495.
  2242.  
  2243.       NeuroWindows is a programmer's tool in a Dynamic Link Library
  2244.       (DLL) that can create as many as 128 interactive nets in an application,
  2245.       each with 32 slabs in a single network, and 32K neurons in a slab.
  2246.       Includes Backpropagation, Kohonen, PNN, and GRNN paradigms.
  2247.       NeuroWindows can mix supervised and unsupervised nets. The DLL
  2248.       may be called from Visual Basic, Visual C, Access Basic, C, Pascal,
  2249.       and VBA/Excel 5. NeuroWindows price: $369.
  2250.  
  2251.       Contact: Ward Systems Group, Inc.; Executive Park West; 5 Hillcrest
  2252.       Drive; Frederick, MD 21702; USA; Phone: 301 662-7950; FAX: 301
  2253.       662-5666. Contact us for a free demo diskette and Consumer's Guide
  2254.       to Neural Networks. 
  2255.  
  2256.     10. NuTank
  2257.     ++++++++++
  2258.  
  2259.       NuTank stands for NeuralTank. It is educational and entertainment
  2260.       software. In this program one is given the shell of a 2 dimentional
  2261.       robotic tank. The tank has various I/O devices like wheels, whiskers,
  2262.       optical sensors, smell, fuel level, sound and such. These I/O sensors are
  2263.       connected to Neurons. The player/designer uses more Neurons to
  2264.       interconnect the I/O devices. One can have any level of complexity
  2265.       desired (memory limited) and do subsumptive designs. More complex
  2266.       design take slightly more fuel, so life is not free. All movement costs
  2267.       fuel too. One can also tag neuron connections as "adaptable" that adapt
  2268.       their weights in acordance with the target neuron. This allows neurons
  2269.       to learn. The Neuron editor can handle 3 dimention arrays of neurons
  2270.       as single entities with very flexible interconect patterns.
  2271.  
  2272.       One can then design a scenario with walls, rocks, lights, fat (fuel)
  2273.       sources (that can be smelled) and many other such things. Robot tanks
  2274.       are then introduced into the Scenario and allowed interact or battle it
  2275.       out. The last one alive wins, or maybe one just watches the motion of
  2276.       the robots for fun. While the scenario is running it can be stopped,
  2277.       edited, zoom'd, and can track on any robot.
  2278.  
  2279.       The entire program is mouse and graphicly based. It uses DOS and
  2280.       VGA and is written in TurboC++. There will also be the ability to
  2281.       download designs to another computer and source code will be
  2282.       available for the core neural simulator. This will allow one to design
  2283.       neural systems and download them to real robots. The design tools can
  2284.       handle three dimentional networks so will work with video camera
  2285.       inputs and such. Eventualy I expect to do a port to UNIX and multi
  2286.       thread the sign. I also expect to do a Mac port and maybe NT or OS/2
  2287.  
  2288.       Copies of NuTank cost $50 each. Contact: Richard Keene; Keene
  2289.       Educational Software; Dick.Keene@Central.Sun.COM
  2290.  
  2291.       NuTank shareware with the Save options disabled is available via
  2292.       anonymous ftp from the Internet, see the file 
  2293.       /pub/incoming/nutank.readme on the host cher.media.mit.edu. 
  2294.  
  2295.     11. Neuralyst
  2296.     +++++++++++++
  2297.  
  2298.       Name: Neuralyst Version 1.4; Company: Cheshire Engineering
  2299.       Corporation; Address: 650 Sierra Madre Villa, Suite 201, Pasedena CA
  2300.       91107; Phone: 818-351-0209; Fax: 818-351-8645;
  2301.  
  2302.       Basic capabilities: training of backpropogation neural nets. Operating
  2303.       system: Windows or Macintosh running Microsoft Excel Spreadsheet.
  2304.       Neuralyst is an add-in package for Excel. Approx. price: $195 for
  2305.       windows or Mac. Comments: A simple model that is easy to use.
  2306.       Integrates nicely into Microsoft Excel. Allows user to create, train, and
  2307.       run backprop ANN models entirely within an Excel spreadsheet.
  2308.       Provides macro functions that can be called from Excel macro's,
  2309.       allowing you to build a custom Window's interface using Excel's
  2310.       macro language and Visual Basic tools. The new version 1.4 includes a
  2311.       genetic algorithm to guide the training process. A good bargain to boot.
  2312.       (Comments by Duane Highley, a user and NOT the program developer.
  2313.       dhighley@ozarks.sgcl.lib.mo.us) 
  2314.  
  2315.     12. NeuFuz4
  2316.     +++++++++++
  2317.  
  2318.       Name: NeuFuz4 Company: National Semiconductor Corporation
  2319.       Address: 2900 Semiconductor Drive, Santa Clara, CA, 95052, or:
  2320.       Industriestrasse 10, D-8080 Fuerstenfeldbruck, Germany, or:
  2321.       Sumitomo Chemical Engineering Center, Bldg. 7F 1-7-1, Nakase,
  2322.       Mihama-Ku, Chiba-City, Ciba Prefecture 261, JAPAN, or: 15th
  2323.       Floor, Straight Block, Ocean Centre, 5 Canton Road, Tsim Sha Tsui
  2324.       East, Kowloon, Hong Kong, Phone: (800) 272-9959 (Americas), :
  2325.       011-49-8141-103-0 Germany : 0l1-81-3-3299-7001 Japan : (852)
  2326.       737-1600 Hong Kong Email: neufuz@esd.nsc.com (Neural net
  2327.       inquiries only) URL:
  2328.       http://www.commerce.net/directories/participants/ns/home.html Basic
  2329.       capabilities: Uses backpropagation techniques to initially select fuzzy
  2330.       rules and membership functions. The result is a fuzzy associative
  2331.       memory (FAM) which implements an approximation of the training
  2332.       data. Operating Systems: 486DX-25 or higher with math co-processor
  2333.       DOS 5.0 or higher with Windows 3.1, mouse, VGA or better,
  2334.       minimum 4 MB RAM, and parallel port. Approx. price : depends on
  2335.       version - see below. Comments : Not for the serious Neural Network
  2336.       researcher, but good for a person who has little understanding of
  2337.       Neural Nets - and wants to keep it that way. The systems are aimed at
  2338.       low end controls applications in automotive, industrial, and appliance
  2339.       areas. NeuFuz is a neural-fuzzy technology which uses
  2340.       backpropagation techniques to initially select fuzzy rules and
  2341.       membership functions. Initial stages of design using NeuFuz
  2342.       technology are performed using training data and backpropagation. The
  2343.       result is a fuzzy associative memory (FAM) which implements an
  2344.       approximation of the training data. By implementing a FAM, rather
  2345.       than a multi-layer perceptron, the designer has a solution which can be
  2346.       understood and tuned to a particular application using Fuzzy Logic
  2347.       design techniques. There are several different versions, some with
  2348.       COP8 Code Generator (COP8 is National's family of 8-bit
  2349.       microcontrollers) and COP8 in-circuit emulator (debug module). 
  2350.  
  2351.     13. Cortex-Pro
  2352.     ++++++++++++++
  2353.  
  2354.       Cortex-Pro information is on WWW at: 
  2355.       http://www.neuronet.ph.kcl.ac.uk/neuronet/software/cortex/www1.html.
  2356.       You can download a working demo from there. Contact: Michael Reiss
  2357.       ( http://www.mth.kcl.ac.uk/~mreiss/mick.html) email:
  2358.       <m.reiss@kcl.ac.uk>. 
  2359.  
  2360.     14. PARTEK
  2361.     ++++++++++
  2362.  
  2363.       PARTEK is a powerful, integrated environment for visual and
  2364.       quantitative data analysis and pattern recognition. Drawing from a
  2365.       wide variety of disciplines including Artificial Neural Networks,
  2366.       Fuzzy Logic, Genetic Algorithms, and Statistics, PARTEK integrates
  2367.       data analysis and modeling tools into an easy to use "point and click"
  2368.       system. The following modules are available from PARTEK; functions
  2369.       from different modules are integrated with each other whereever
  2370.       possible: 
  2371.        1. The PARTEK/AVB - The Analytical/Visual Base. (TM) 
  2372.  
  2373.               * Analytical Spreadsheet (TM)
  2374.                 The Analytical Spreadsheet is a powerful and easy to use data analysis,
  2375.                 transformations, and visualization tool.  Some features include:
  2376.                    - import native format ascii/binary data
  2377.                    - recognition and resolution of missing data
  2378.                    - complete set of common mathematical & statistical functions
  2379.                    - contingency table analysis / correspondence analysis
  2380.                    - univariate histogram analysis
  2381.                    - extensive set of smoothing and normalization transformations
  2382.                    - easily and quickly plot color-coded 1-D curves and histograms,
  2383.                      2-D, 3-D, and N-D mapped scatterplots, highlighting selected
  2384.                      patterns
  2385.                    - Command Line (Tcl) and Graphical Interface
  2386.  
  2387.               * Pattern Visualization System (TM)
  2388.                 The Pattern Visualization System offers the most powerful tools for
  2389.                 visual analysis of the patterns in your data.  Some features include:
  2390.                    - automatically maps N-D data down to 3-D for visualization of
  2391.                      *all* of your variables at once
  2392.                    - hard copy color Postscript output
  2393.                    - a variety of color-coding, highlighting, and labeling options
  2394.                      allow you to generate meaningful graphics
  2395.  
  2396.               * Data Filters
  2397.                 Filter out selected rows and/or columns of your data for flexible and
  2398.                 efficient cross-validation, jackknifing, bootstrapping, feature set
  2399.                 evaluation, and more.
  2400.  
  2401.               * Random # Generators
  2402.                 Generate random numbers from any of the following parameterized 
  2403.                 distributions:
  2404.                    - uniform, normal, exponential, gamma, binomial, poisson
  2405.  
  2406.               * Many distance/similarity metrics
  2407.                 Choose the appropriate distance metric for your data:
  2408.                    - euclidean, mahalanobis, minkowski, maximum value, absolute value,
  2409.                      shape coefficient, cosine coefficient, pearson correlation,
  2410.                      rank correlation, kendall's tau, canberra, and bray-curtis
  2411.  
  2412.               * Tcl/Tk command line interface
  2413.  
  2414.        2. The PARTEK/DSA - Data Structure Analysis Module 
  2415.  
  2416.               * Principal Components Analysis and Regression
  2417.                 Also known as Eigenvector Projection or Karhunen-Loeve Expansions,
  2418.                 PCA removes redundant information from your data.
  2419.                    - component analysis, correlate PC's with original variables
  2420.                    - choice of covariance, correlation, or product dispersion matrices
  2421.                    - choice of eigenvector, y-score, and z-score projections
  2422.                    - view SCREE and log-eigenvalue plots
  2423.  
  2424.               * Cluster Analysis
  2425.                 Does the data form groups?  How many?  How compact?  Cluster Analysis
  2426.                 is the tool to answer these questions.
  2427.                    - choose between several distance metrics
  2428.                    - optionally weight individual patterns
  2429.                    - manually or auto-select the cluster number and initial centers
  2430.                    - dump cluster counts, mean, cluster to cluster distances,
  2431.                      cluster variances, and cluster labeled data to a matrix viewer or
  2432.                      the Analytical Spreadsheet for further analysis
  2433.                    - visualize n-dimensional clustering
  2434.                    - assess goodness of partion using several internal and external
  2435.                      criteria metrics
  2436.  
  2437.               * N-Dimensional Histogram Analysis
  2438.                 Among the most inportant questions a researcher needs to know when
  2439.                 analyzing patterns is whether or not the patterns can distinguish
  2440.                 different classes of data.  N-D Histogram Analysis is one tool to 
  2441.                 answer this question.
  2442.                    - measures histogram overlap in n-dimensional space
  2443.                    - automatically find the best subset of features
  2444.                    - rank the overlap of your best feature combinations
  2445.  
  2446.               * Non-Linear Mapping
  2447.                 NLM is an iterative algorithm for visually analyzing the structure of
  2448.                 n-dimensional data.  NLM produces a non-linear mapping of data which
  2449.                 preserves interpoint distances of n-dimensional data while reducing
  2450.                 to a lower dimensionality - thus preserving the structure of the data.
  2451.                    - visually analyze structure of n-dimensional data
  2452.                    - track progress with error curves
  2453.                    - orthogonal, PCA, and random initialization
  2454.  
  2455.        3. The PARTEK/CP - Classification and Prediction Module. 
  2456.  
  2457.               * Multi-Layer Perceptron
  2458.                 The most popular among the neural pattern recognition tools is the MLP.
  2459.                 PARTEK takes the MLP to a new dimension, by allowing the network to 
  2460.                 learn by adapting ALL of its parameters to solve a problem.
  2461.                    - adapts output bias, neuron activation steepness, and neuron
  2462.                      dynamic range, as well as weights and input biases
  2463.                    - auto-scaling at input and output - no need to rescale your data
  2464.                    - choose between sigmoid, gaussian, linear, or mixture of neurons
  2465.                    - learning rate, momentum can be set independently for each parameter
  2466.                    - variety of learning methods and network initializations
  2467.                    - view color-coded network, error, etc as network trains, tests, runs
  2468.  
  2469.               * Learning Vector Quantization
  2470.                 Because LVQ is a multiple prototype classifier, it adapts to identify
  2471.                 multiple sub-groups within classes
  2472.                    - LVQ1, LVQ2, and LVQ3 training methods
  2473.                    - 3 different functions for adapting learning rate
  2474.                    - choose between several distance metrics
  2475.                    - fuzzy and crisp classifications
  2476.                    - set number of prototypes individually for each class
  2477.  
  2478.               * Bayesian Classifier
  2479.                 Bayes methods are the statistical decision theory approach to 
  2480.                 classification.  This classifier uses statistical properties of your
  2481.                 data to develop a classification model.
  2482.  
  2483.       PARTEK is available on HP, IBM, Silicon Graphics, and SUN
  2484.       workstations. For more information, send email to "info@partek.com"
  2485.       or call (314)926-2329. 
  2486.  
  2487.    ------------------------------------------------------------------------
  2488.  
  2489.  19. A: Neural Network hardware?
  2490.  ===============================
  2491.  
  2492.    [who will write some short comment on the most important HW-packages
  2493.    and chips?]
  2494.  
  2495.    The Number 1 of each volume of the journal "Neural Networks" has a list of
  2496.    some dozens of suppliers of Neural Network support: Software, Hardware,
  2497.    Support, Programming, Design and Service.
  2498.  
  2499.    Here is a short list of companies: 
  2500.  
  2501.     1. HNC, INC.
  2502.     ++++++++++++
  2503.  
  2504.          5501 Oberlin Drive
  2505.          San Diego
  2506.          California 92121
  2507.          (619) 546-8877
  2508.             and a second address at
  2509.          7799 Leesburg Pike, Suite 900
  2510.          Falls Church, Virginia
  2511.          22043
  2512.          (703) 847-6808
  2513.             Note: Australian Dist.: Unitronics 
  2514.                                     Tel : (09) 4701443
  2515.                                     Contact: Martin Keye
  2516.          HNC markets:
  2517.           'Image Document Entry Processing Terminal' - it recognises
  2518.           handwritten documents and converts the info to ASCII.
  2519.           'ExploreNet 3000' - a NN demonstrator
  2520.           'Anza/DP Plus'- a Neural Net board with 25MFlop or 12.5M peak 
  2521.           interconnects per second.
  2522.  
  2523.     2. SAIC (Sience Application International Corporation)
  2524.     ++++++++++++++++++++++++++++++++++++++++++++++++++++++
  2525.  
  2526.          10260 Campus Point Drive
  2527.          MS 71, San Diego
  2528.          CA 92121
  2529.          (619) 546 6148
  2530.          Fax: (619) 546 6736
  2531.  
  2532.     3. Micro Devices
  2533.     ++++++++++++++++
  2534.  
  2535.          30 Skyline Drive
  2536.          Lake Mary
  2537.          FL 32746-6201
  2538.          (407) 333-4379
  2539.          MicroDevices makes   MD1220 - 'Neural Bit Slice'
  2540.          Each of the products mentioned sofar have very different usages.
  2541.          Although this sounds similar to Intel's product, the
  2542.          architectures are not.
  2543.  
  2544.     4. Intel Corp
  2545.     +++++++++++++
  2546.  
  2547.          2250 Mission College Blvd
  2548.          Santa Clara, Ca 95052-8125
  2549.          Attn ETANN, Mail Stop SC9-40
  2550.          (408) 765-9235
  2551.          Intel is making an experimental chip:
  2552.          80170NW - Electrically trainable Analog Neural Network (ETANN)
  2553.          It has 64 'neurons' on it - almost fully internally connectted
  2554.          and the chip can be put in an hierarchial architecture to do 2 Billion
  2555.          interconnects per second.
  2556.          Support software has already been made by
  2557.            California Scientific Software
  2558.            10141 Evening Star Dr #6
  2559.            Grass Valley, CA 95945-9051
  2560.            (916) 477-7481
  2561.          Their product is called 'BrainMaker'.
  2562.  
  2563.     5. NeuralWare, Inc
  2564.     ++++++++++++++++++
  2565.  
  2566.          Penn Center West
  2567.          Bldg IV Suite 227
  2568.          Pittsburgh
  2569.          PA 15276
  2570.          They only sell software/simulator but for many platforms.
  2571.  
  2572.     6. Tubb Research Limited
  2573.     ++++++++++++++++++++++++
  2574.  
  2575.          7a Lavant Street
  2576.          Peterfield
  2577.          Hampshire
  2578.          GU32 2EL
  2579.          United Kingdom
  2580.          Tel: +44 730 60256
  2581.  
  2582.     7. Adaptive Solutions Inc
  2583.     +++++++++++++++++++++++++
  2584.  
  2585.          1400 NW Compton Drive
  2586.          Suite 340
  2587.          Beaverton, OR 97006
  2588.          U. S. A.
  2589.          Tel: 503-690-1236;   FAX: 503-690-1249
  2590.  
  2591.     8. NeuroDynamX, Inc.
  2592.     ++++++++++++++++++++
  2593.  
  2594.          4730 Walnut St., Suite 101B
  2595.          Boulder, CO 80301
  2596.          Voice: (303) 442-3539   Fax: (303) 442-2854
  2597.          Internet: techsupport@ndx.com
  2598.          NDX sells a number neural network hardware products:
  2599.          NDX Neural Accelerators: a line of i860-based accelerator cards for
  2600.          the PC that give up to 45 million connections per second for use 
  2601.          with the DynaMind neural network software.
  2602.          iNNTS: Intel's 80170NX (ETANN) Neural Network Training System. NDX's president
  2603.          was one of the co-designers of this chip.
  2604.  
  2605.     9. IC Tech
  2606.     ++++++++++
  2607.  
  2608.       NEURO-COMPUTING IC's:
  2609.       *  DANN050L (dendro-dendritic artificial neural network)
  2610.          + 50 neurons fully connected at the input
  2611.          + on-chip digital learning capability
  2612.          + 6 billion connections/sec peak speed
  2613.          + learns 7 x 7 template in < 50 nsec., recalls in < 400 nsec.
  2614.          + low power < 100 milli Watts
  2615.          + 64-pin package
  2616.       *  NCA717D  (neuro correlator array)
  2617.          + analog template matching in < 500 nsec.
  2618.          + analog input / digital output pins for real-time computation 
  2619.          + vision applications in stereo and motion computation
  2620.          + 40-pin package 
  2621.       NEURO COMPUTING BOARD:
  2622.       *  ICT1050 
  2623.          + IBM PC compatible or higher
  2624.          + with on-board DANN050L
  2625.          + digital interface
  2626.          + custom configurations available
  2627.       Contact:
  2628.       IC Tech (Innovative Computing Technologies, Inc.)
  2629.       4138 Luff Court
  2630.       Okemos, MI 48864
  2631.       (517) 349-4544
  2632.       ictech@mcimail.com
  2633.  
  2634.    And here is an incomplete overview over known Neural Computers with their
  2635.    newest known reference.
  2636.  
  2637.    \subsection*{Digital}
  2638.    \subsubsection{Special Computers}
  2639.  
  2640.    {\bf AAP-2}
  2641.    Takumi Watanabe, Yoshi Sugiyama, Toshio Kondo, and Yoshihiro Kitamura.
  2642.    Neural network simulation on a massively parallel cellular array
  2643.    processor: AAP-2. 
  2644.    In International Joint Conference on Neural Networks, 1989.
  2645.  
  2646.    {\bf ANNA}
  2647.    B.E.Boser, E.Sackinger, J.Bromley, Y.leChun, and L.D.Jackel.\\
  2648.    Hardware Requirements for Neural Network Pattern Classifiers.\\
  2649.    In {\it IEEE Micro}, 12(1), pages 32-40, February 1992.
  2650.  
  2651.    {\bf Analog Neural Computer}
  2652.    Paul Mueller et al. 
  2653.    Design and performance of a prototype analog neural computer. 
  2654.    In Neurocomputing, 4(6):311-323, 1992.
  2655.  
  2656.    {\bf APx -- Array Processor Accelerator}\\
  2657.    F.Pazienti.\\
  2658.    Neural networks simulation with array processors. 
  2659.    In {\it Advanced Computer Technology, Reliable Systems and Applications;
  2660.    Proceedings of the 5th Annual Computer Conference}, pages 547-551. 
  2661.    IEEE Comput. Soc. Press, May 1991. ISBN: 0-8186-2141-9.
  2662.  
  2663.    {\bf ASP -- Associative String Processor}\\
  2664.    A.Krikelis.\\
  2665.    A novel massively associative processing architecture for the
  2666.    implementation artificial neural networks.\\
  2667.    In {\it 1991 International Conference on Acoustics, Speech and 
  2668.    Signal Processing}, volume 2, pages 1057-1060. IEEE Comput. Soc. Press,
  2669.    May 1991.
  2670.  
  2671.    {\bf BSP400}
  2672.    Jan N.H. Heemskerk, Jacob M.J. Murre, Jaap Hoekstra, Leon H.J.G.
  2673.    Kemna, and Patrick T.W. Hudson. 
  2674.    The bsp400: A modular neurocomputer assembled from 400 low-cost
  2675.    microprocessors. 
  2676.    In International Conference on Artificial Neural Networks. Elsevier
  2677.    Science, 1991.
  2678.  
  2679.    {\bf BLAST}\\
  2680.    J.G.Elias, M.D.Fisher, and C.M.Monemi.\\
  2681.    A multiprocessor machine for large-scale neural network simulation.
  2682.    In {\it IJCNN91-Seattle: International Joint Conference on Neural
  2683.    Networks}, volume 1, pages 469-474. IEEE Comput. Soc. Press, July 1991.
  2684.    ISBN: 0-7883-0164-1.
  2685.  
  2686.    {\bf CNAPS Neurocomputer}\\
  2687.    H.McCartor\\
  2688.    Back Propagation Implementation on the Adaptive Solutions CNAPS
  2689.    Neurocomputer.\\
  2690.    In {\it Advances in Neural Information Processing Systems}, 3, 1991.
  2691.  
  2692.    {\bf GENES~IV and MANTRA~I}\\
  2693.    Paolo Ienne and  Marc A. Viredaz\\
  2694.    {GENES~IV}: A Bit-Serial Processing Element for a Multi-Model 
  2695.       Neural-Network Accelerator\\
  2696.    Proceedings of the International Conference on Application Specific Array
  2697.       Processors, Venezia, 1993.
  2698.  
  2699.    {\bf MA16 -- Neural Signal Processor}
  2700.    U.Ramacher, J.Beichter, and N.Bruls.\\
  2701.    Architecture of a general-purpose neural signal processor.\\
  2702.    In {\it IJCNN91-Seattle: International Joint Conference on Neural
  2703.    Networks}, volume 1, pages 443-446. IEEE Comput. Soc. Press, July 1991.
  2704.    ISBN: 0-7083-0164-1.
  2705.  
  2706.    {\bf MANTRA I}\\
  2707.    Marc A. Viredaz\\
  2708.    {MANTRA~I}: An {SIMD} Processor Array for Neural Computation
  2709.    Proceedings of the Euro-ARCH'93 Conference, {M\"unchen}, 1993.
  2710.  
  2711.    {\bf Mindshape}
  2712.    Jan N.H. Heemskerk, Jacob M.J. Murre Arend Melissant, Mirko Pelgrom,
  2713.    and Patrick T.W. Hudson. 
  2714.    Mindshape: a neurocomputer concept based on a fractal architecture. 
  2715.    In International Conference on Artificial Neural Networks. Elsevier
  2716.    Science, 1992. 
  2717.  
  2718.    {\bf mod 2}
  2719.    Michael L. Mumford, David K. Andes, and Lynn R. Kern. 
  2720.    The mod 2 neurocomputer system design. 
  2721.    In IEEE Transactions on Neural Networks, 3(3):423-433, 1992.
  2722.  
  2723.    {\bf NERV}\\
  2724.    R.Hauser, H.Horner, R. Maenner, and M.Makhaniok.\\
  2725.    Architectural Considerations for NERV - a General Purpose Neural
  2726.    Network Simulation System.\\
  2727.    In {\it Workshop on Parallel Processing: Logic, Organization and
  2728.    Technology -- WOPPLOT 89}, pages 183-195. Springer Verlag, Mars 1989.
  2729.    ISBN: 3-5405-5027-5.
  2730.  
  2731.    {\bf NP -- Neural Processor}\\
  2732.    D.A.Orrey, D.J.Myers, and J.M.Vincent.\\
  2733.    A high performance digital processor for implementing large artificial
  2734.    neural networks.\\
  2735.    In {\it Proceedings of of the IEEE 1991 Custom Integrated Circuits
  2736.    Conference}, pages 16.3/1-4. IEEE Comput. Soc. Press, May 1991. 
  2737.    ISBN: 0-7883-0015-7.
  2738.  
  2739.    {\bf RAP -- Ring Array Processor }\\
  2740.    N.Morgan, J.Beck, P.Kohn, J.Bilmes, E.Allman, and J.Beer.\\
  2741.    The ring array processor: A multiprocessing peripheral for connectionist
  2742.    applications. \\
  2743.    In {\it Journal of Parallel and Distributed Computing}, pages
  2744.    248-259, April 1992.
  2745.  
  2746.    {\bf RENNS -- REconfigurable Neural Networks Server}\\
  2747.    O.Landsverk, J.Greipsland, J.A.Mathisen, J.G.Solheim, and L.Utne.\\
  2748.    RENNS - a Reconfigurable Computer System for Simulating Artificial
  2749.    Neural Network Algorithms.\\
  2750.    In {\it Parallel and Distributed Computing Systems, Proceedings of the
  2751.    ISMM 5th International Conference}, pages 251-256. The International
  2752.    Society for Mini and Microcomputers - ISMM, October 1992. 
  2753.    ISBN: 1-8808-4302-1.
  2754.  
  2755.    {\bf SMART -- Sparse Matrix Adaptive and Recursive Transforms}\\
  2756.    P.Bessiere, A.Chams, A.Guerin, J.Herault, C.Jutten, and J.C.Lawson.\\
  2757.    From Hardware to Software: Designing a ``Neurostation''.\\
  2758.    In {\it VLSI design of Neural Networks}, pages 311-335, June 1990.
  2759.  
  2760.    {\bf SNAP -- Scalable Neurocomputer Array Processor}
  2761.    E.Wojciechowski.\\
  2762.    SNAP: A parallel processor for implementing real time neural networks.\\
  2763.    In {\it Proceedings of the IEEE 1991 National Aerospace and Electronics
  2764.    Conference; NAECON-91}, volume 2, pages 736-742. IEEE Comput.Soc.Press,
  2765.    May 1991.
  2766.  
  2767.    {\bf Toroidal Neural Network Processor}\\
  2768.    S.Jones, K.Sammut, C.Nielsen, and J.Staunstrup.\\
  2769.    Toroidal Neural Network: Architecture and Processor Granularity
  2770.    Issues.\\
  2771.    In {\it VLSI design of Neural Networks}, pages 229-254, June 1990.
  2772.  
  2773.    {\bf SMART and SuperNode}
  2774.    P. Bessi`ere, A. Chams, and P. Chol. 
  2775.    MENTAL : A virtual machine approach to artificial neural networks 
  2776.    programming. In NERVES, ESPRIT B.R.A. project no 3049, 1991. 
  2777.  
  2778.  
  2779.    \subsubsection{Standard Computers}
  2780.  
  2781.    {\bf EMMA-2}\\
  2782.    R.Battiti, L.M.Briano, R.Cecinati, A.M.Colla, and P.Guido.\\
  2783.    An application oriented development environment for Neural Net models on
  2784.    multiprocessor Emma-2.\\
  2785.    In {\it Silicon Architectures for Neural Nets; Proceedings for the IFIP
  2786.    WG.10.5 Workshop}, pages 31-43. North Holland, November 1991. 
  2787.    ISBN: 0-4448-9113-7.
  2788.  
  2789.    {\bf iPSC/860 Hypercube}\\
  2790.    D.Jackson, and D.Hammerstrom\\
  2791.    Distributing Back Propagation Networks Over the Intel iPSC/860
  2792.    Hypercube}\\ 
  2793.    In {\it IJCNN91-Seattle: International Joint Conference on Neural
  2794.    Networks}, volume 1, pages 569-574. IEEE Comput. Soc. Press, July 1991.
  2795.    ISBN: 0-7083-0164-1.
  2796.  
  2797.    {\bf SCAP -- Systolic/Cellular Array Processor}\\
  2798.    Wei-Ling L., V.K.Prasanna, and K.W.Przytula.\\
  2799.    Algorithmic Mapping of Neural Network Models onto Parallel SIMD
  2800.    Machines.\\
  2801.    In {\it IEEE Transactions on Computers}, 40(12), pages 1390-1401,
  2802.    December 1991. ISSN: 0018-9340.
  2803.  
  2804.    ------------------------------------------------------------------------
  2805.  
  2806.  20. A: Databases for experimentation with NNs?
  2807.  ==============================================
  2808.  
  2809.     1. The neural-bench Benchmark collection
  2810.     ++++++++++++++++++++++++++++++++++++++++
  2811.  
  2812.       Accessible via anonymous FTP on ftp.cs.cmu.edu [128.2.206.173] in
  2813.       directory /afs/cs/project/connect/bench. In case of problems or if you
  2814.       want to donate data, email contact is "neural-bench@cs.cmu.edu". The
  2815.       data sets in this repository include the 'nettalk' data, 'two spirals',
  2816.       protein structure prediction, vowel recognition, sonar signal
  2817.       classification, and a few others. 
  2818.  
  2819.     2. Proben1
  2820.     ++++++++++
  2821.  
  2822.       Proben1 is a collection of 12 learning problems consisting of real data.
  2823.       The datafiles all share a single simple common format. Along with the
  2824.       data comes a technical report describing a set of rules and conventions
  2825.       for performing and reporting benchmark tests and their results.
  2826.       Accessible via anonymous FTP on ftp.cs.cmu.edu [128.2.206.173] as 
  2827.       /afs/cs/project/connect/bench/contrib/prechelt/proben1.tar.gz. and also
  2828.       on ftp.ira.uka.de [129.13.10.90] as /pub/neuron/proben.tar.gz. The file
  2829.       is about 1.8 MB and unpacks into about 20 MB. 
  2830.  
  2831.     3. UCI machine learning database
  2832.     ++++++++++++++++++++++++++++++++
  2833.  
  2834.       Accessible via anonymous FTP on ics.uci.edu [128.195.1.1] in directory
  2835.       /pub/machine-learning-databases". 
  2836.  
  2837.     4. NIST special databases of the National Institute Of Standards And
  2838.     ++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
  2839.       Technology:
  2840.       +++++++++++
  2841.  
  2842.       Several large databases, each delivered on a CD-ROM. Here is a quick
  2843.       list. 
  2844.        o NIST Binary Images of Printed Digits, Alphas, and Text 
  2845.        o NIST Structured Forms Reference Set of Binary Images 
  2846.        o NIST Binary Images of Handwritten Segmented Characters 
  2847.        o NIST 8-bit Gray Scale Images of Fingerprint Image Groups 
  2848.        o NIST Structured Forms Reference Set 2 of Binary Images 
  2849.        o NIST Test Data 1: Binary Images of Hand-Printed Segmented
  2850.          Characters 
  2851.        o NIST Machine-Print Database of Gray Scale and Binary
  2852.          Images 
  2853.        o NIST 8-Bit Gray Scale Images of Mated Fingerprint Card Pairs
  2854.        o NIST Supplemental Fingerprint Card Data (SFCD) for NIST
  2855.          Special Database 9 
  2856.        o NIST Binary Image Databases of Census Miniforms (MFDB) 
  2857.        o NIST Mated Fingerprint Card Pairs 2 (MFCP 2) 
  2858.        o NIST Scoring Package Release 1.0 
  2859.        o NIST FORM-BASED HANDPRINT RECOGNITION
  2860.          SYSTEM 
  2861.       Here are example descriptions of two of these databases: 
  2862.  
  2863.       NIST special database 2: Structured Forms Reference Set (SFRS)
  2864.       --------------------------------------------------------------
  2865.  
  2866.       The NIST database of structured forms contains 5,590 full page images
  2867.       of simulated tax forms completed using machine print. THERE IS NO
  2868.       REAL TAX DATA IN THIS DATABASE. The structured forms used
  2869.       in this database are 12 different forms from the 1988, IRS 1040
  2870.       Package X. These include Forms 1040, 2106, 2441, 4562, and 6251
  2871.       together with Schedules A, B, C, D, E, F and SE. Eight of these forms
  2872.       contain two pages or form faces making a total of 20 form faces
  2873.       represented in the database. Each image is stored in bi-level black and
  2874.       white raster format. The images in this database appear to be real
  2875.       forms prepared by individuals but the images have been automatically
  2876.       derived and synthesized using a computer and contain no "real" tax
  2877.       data. The entry field values on the forms have been automatically
  2878.       generated by a computer in order to make the data available without
  2879.       the danger of distributing privileged tax information. In addition to the
  2880.       images the database includes 5,590 answer files, one for each image.
  2881.       Each answer file contains an ASCII representation of the data found in
  2882.       the entry fields on the corresponding image. Image format
  2883.       documentation and example software are also provided. The
  2884.       uncompressed database totals approximately 5.9 gigabytes of data. 
  2885.  
  2886.       NIST special database 3: Binary Images of Handwritten Segmented
  2887.       ---------------------------------------------------------------
  2888.       Characters (HWSC)
  2889.       -----------------
  2890.  
  2891.       Contains 313,389 isolated character images segmented from the 2,100
  2892.       full-page images distributed with "NIST Special Database 1". 223,125
  2893.       digits, 44,951 upper-case, and 45,313 lower-case character images.
  2894.       Each character image has been centered in a separate 128 by 128 pixel
  2895.       region, error rate of the segmentation and assigned classification is less
  2896.       than 0.1%. The uncompressed database totals approximately 2.75
  2897.       gigabytes of image data and includes image format documentation and
  2898.       example software.
  2899.  
  2900.       The system requirements for all databases are a 5.25" CD-ROM drive
  2901.       with software to read ISO-9660 format. Contact: Darrin L. Dimmick;
  2902.       dld@magi.ncsl.nist.gov; (301)975-4147
  2903.  
  2904.       The prices of the databases are between US$ 250 and 1895 If you wish
  2905.       to order a database, please contact: Standard Reference Data; National
  2906.       Institute of Standards and Technology; 221/A323; Gaithersburg, MD
  2907.       20899; Phone: (301)975-2208; FAX: (301)926-0416
  2908.  
  2909.       Samples of the data can be found by ftp on sequoyah.ncsl.nist.gov in
  2910.       directory /pub/data A more complete description of the available
  2911.       databases can be obtained from the same host as 
  2912.       /pub/databases/catalog.txt 
  2913.  
  2914.     5. CEDAR CD-ROM 1: Database of Handwritten Cities, States, ZIP
  2915.     ++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
  2916.       Codes, Digits, and Alphabetic Characters
  2917.       ++++++++++++++++++++++++++++++++++++++++
  2918.  
  2919.       The Center Of Excellence for Document Analysis and Recognition
  2920.       (CEDAR) State University of New York at Buffalo announces the
  2921.       availability of CEDAR CDROM 1: USPS Office of Advanced
  2922.       Technology The database contains handwritten words and ZIP Codes in
  2923.       high resolution grayscale (300 ppi 8-bit) as well as binary handwritten
  2924.       digits and alphabetic characters (300 ppi 1-bit). This database is
  2925.       intended to encourage research in off-line handwriting recognition by
  2926.       providing access to handwriting samples digitized from envelopes in a
  2927.       working post office. 
  2928.  
  2929.            Specifications of the database include:
  2930.            +    300 ppi 8-bit grayscale handwritten words (cities,
  2931.                 states, ZIP Codes)
  2932.                 o    5632 city words
  2933.                 o    4938 state words
  2934.                 o    9454 ZIP Codes
  2935.            +    300 ppi binary handwritten characters and digits:
  2936.                 o    27,837 mixed alphas  and  numerics  segmented
  2937.                      from address blocks
  2938.                 o    21,179 digits segmented from ZIP Codes
  2939.            +    every image supplied with  a  manually  determined
  2940.                 truth value
  2941.            +    extracted from live mail in a  working  U.S.  Post
  2942.                 Office
  2943.            +    word images in the test  set  supplied  with  dic-
  2944.                 tionaries  of  postal  words that simulate partial
  2945.                 recognition of the corresponding ZIP Code.
  2946.            +    digit images included in test  set  that  simulate
  2947.                 automatic ZIP Code segmentation.  Results on these
  2948.                 data can be projected to overall ZIP Code recogni-
  2949.                 tion performance.
  2950.            +    image format documentation and software included
  2951.  
  2952.       System requirements are a 5.25" CD-ROM drive with software to read
  2953.       ISO-9660 format. For any further information, including how to order
  2954.       the database, please contact: Jonathan J. Hull, Associate Director,
  2955.       CEDAR, 226 Bell Hall State University of New York at Buffalo,
  2956.       Buffalo, NY 14260; hull@cs.buffalo.edu (email) 
  2957.  
  2958.     6. AI-CD-ROM (see under answer 13)
  2959.     ++++++++++++++++++++++++++++++++++
  2960.  
  2961.     7. Time series archive
  2962.     ++++++++++++++++++++++
  2963.  
  2964.       Various datasets of time series (to be used for prediction learning
  2965.       problems) are available for anonymous ftp from ftp.santafe.edu
  2966.       [192.12.12.1] in /pub/Time-Series". Problems are for example:
  2967.       fluctuations in a far-infrared laser; Physiological data of patients with
  2968.       sleep apnea; High frequency currency exchange rate data; Intensity of a
  2969.       white dwarf star; J.S. Bachs final (unfinished) fugue from "Die Kunst
  2970.       der Fuge"
  2971.  
  2972.       Some of the datasets were used in a prediction contest and are
  2973.       described in detail in the book "Time series prediction: Forecasting the
  2974.       future and understanding the past", edited by Weigend/Gershenfield,
  2975.       Proceedings Volume XV in the Santa Fe Institute Studies in the
  2976.       Sciences of Complexity series of Addison Wesley (1994). 
  2977.  
  2978.    ------------------------------------------------------------------------
  2979.  
  2980.    That's all folks.
  2981.  
  2982.    Acknowledgements: Thanks to all the people who helped to get the stuff
  2983.                      above into the posting. I cannot name them all, because
  2984.                      I would make far too many errors then. :->
  2985.  
  2986.                      No?  Not good?  You want individual credit?
  2987.                      OK, OK. I'll try to name them all. But: no guarantee....
  2988.  
  2989.      THANKS FOR HELP TO:
  2990.    (in alphabetical order of email adresses, I hope)
  2991.  
  2992.     o Gamze Erten <ictech@mcimail.com> 
  2993.     o Steve Ward <71561.2370@CompuServe.COM> 
  2994.     o Mohammad Bahrami <bahrami@cse.unsw.edu.au> 
  2995.     o Allen Bonde <ab04@harvey.gte.com> 
  2996.     o Accel Infotech Spore Pte Ltd <accel@solomon.technet.sg> 
  2997.     o Alexander Linden <al@jargon.gmd.de> 
  2998.     o S.Taimi Ames <ames@reed.edu> 
  2999.     o Axel Mulder <amulder@move.kines.sfu.ca> 
  3000.     o anderson@atc.boeing.com 
  3001.     o Andy Gillanders <andy@grace.demon.co.uk> 
  3002.     o Davide Anguita <anguita@ICSI.Berkeley.EDU> 
  3003.     o Avraam Pouliakis <apou@leon.nrcps.ariadne-t.gr> 
  3004.     o Kim L. Blackwell <avrama@helix.nih.gov> 
  3005.     o Paul Bakker <bakker@cs.uq.oz.au> 
  3006.     o Stefan Bergdoll <bergdoll@zxd.basf-ag.de> 
  3007.     o Jamshed Bharucha <bharucha@casbs.Stanford.EDU> 
  3008.     o Yijun Cai <caiy@mercury.cs.uregina.ca> 
  3009.     o L. Leon Campbell <campbell@brahms.udel.edu> 
  3010.     o Craig Watson <craig@magi.ncsl.nist.gov> 
  3011.     o Yaron Danon <danony@goya.its.rpi.edu> 
  3012.     o David Ewing <dave@ndx.com> 
  3013.     o David DeMers <demers@cs.ucsd.edu> 
  3014.     o Denni Rognvaldsson <denni@thep.lu.se> 
  3015.     o Duane Highley <dhighley@ozarks.sgcl.lib.mo.us> 
  3016.     o Dick.Keene@Central.Sun.COM 
  3017.     o DJ Meyer <djm@partek.com> 
  3018.     o Donald Tveter <drt@mcs.com> 
  3019.     o Athanasios Episcopos <EPISCOPO@icarus.som.clarkson.edu> 
  3020.     o Frank Schnorrenberg <fs0997@easttexas.tamu.edu> 
  3021.     o Gary Lawrence Murphy <garym@maya.isis.org> 
  3022.     o gaudiano@park.bu.edu 
  3023.     o Lee Giles <giles@research.nj.nec.com> 
  3024.     o Glen Clark <opto!glen@gatech.edu> 
  3025.     o Phil Goodman <goodman@unr.edu> 
  3026.     o guy@minster.york.ac.uk 
  3027.     o Joerg Heitkoetter <heitkoet@lusty.informatik.uni-dortmund.de> 
  3028.     o Ralf Hohenstein <hohenst@math.uni-muenster.de> 
  3029.     o Ed Rosenfeld <IER@aol.com> 
  3030.     o Jean-Denis Muller <jdmuller@vnet.ibm.com> 
  3031.     o Jeff Harpster <uu0979!jeff@uu9.psi.com> 
  3032.     o Jonathan Kamens <jik@MIT.Edu> 
  3033.     o J.J. Merelo <jmerelo@kal-el.ugr.es> 
  3034.     o Jon Gunnar Solheim <jon@kongle.idt.unit.no> 
  3035.     o Josef Nelissen <jonas@beor.informatik.rwth-aachen.de> 
  3036.     o Joey Rogers <jrogers@buster.eng.ua.edu> 
  3037.     o Subhash Kak <kak@gate.ee.lsu.edu> 
  3038.     o Ken Karnofsky <karnofsky@mathworks.com> 
  3039.     o Kjetil.Noervaag@idt.unit.no 
  3040.     o Luke Koops <koops@gaul.csd.uwo.ca> 
  3041.     o William Mackeown <mackeown@compsci.bristol.ac.uk> 
  3042.     o Mark Plumbley <mark@dcs.kcl.ac.uk> 
  3043.     o Peter Marvit <marvit@cattell.psych.upenn.edu> 
  3044.     o masud@worldbank.org 
  3045.     o Yoshiro Miyata <miyata@sccs.chukyo-u.ac.jp> 
  3046.     o Madhav Moganti <mmogati@cs.umr.edu> 
  3047.     o Jyrki Alakuijala <more@ee.oulu.fi> 
  3048.     o Michael Reiss <m.reiss@kcl.ac.uk> 
  3049.     o mrs@kithrup.com 
  3050.     o Maciek Sitnik <msitnik@plearn.edu.pl> 
  3051.     o R. Steven Rainwater <ncc@ncc.jvnc.net> 
  3052.     o Paolo Ienne <Paolo.Ienne@di.epfl.ch> 
  3053.     o Paul Keller <pe_keller@ccmail.pnl.gov> 
  3054.     o Michael Plonski <plonski@aero.org> 
  3055.     o Lutz Prechelt <prechelt@ira.uka.de> [creator of FAQ] 
  3056.     o Richard Andrew Miles Outerbridge <ramo@uvphys.phys.uvic.ca> 
  3057.     o Robin L. Getz <rgetz@esd.nsc.com> 
  3058.     o Richard Cornelius <richc@rsf.atd.ucar.edu> 
  3059.     o Rob Cunningham <rkc@xn.ll.mit.edu> 
  3060.     o Robert.Kocjancic@IJS.si 
  3061.     o Osamu Saito <saito@nttica.ntt.jp> 
  3062.     o Warren Sarle <saswss@unx.sas.com> 
  3063.     o Scott Fahlman <sef+@cs.cmu.edu> 
  3064.     o <seibert@ll.mit.edu> 
  3065.     o Sheryl Cormicle <sherylc@umich.edu> 
  3066.     o Ted Stockwell <ted@aps1.spa.umn.edu> 
  3067.     o Serge Waterschoot <swater@minf.vub.ac.be> 
  3068.     o Thomas G. Dietterich <tgd@research.cs.orst.edu> 
  3069.     o Thomas.Vogel@cl.cam.ac.uk 
  3070.     o Ulrich Wendl <uli@unido.informatik.uni-dortmund.de> 
  3071.     o M. Verleysen <verleysen@dice.ucl.ac.be> 
  3072.     o Sherif Hashem <vg197@neutrino.pnl.gov> 
  3073.     o Matthew P Wiener <weemba@sagi.wistar.upenn.edu> 
  3074.     o Wesley Elsberry <welsberr@orca.tamu.edu> 
  3075.  
  3076.    Bye
  3077.  
  3078.      Lutz
  3079.  
  3080.    Neural network FAQ / Lutz Prechelt, prechelt@ira.uka.de
  3081. -- 
  3082. Lutz Prechelt   (http://wwwipd.ira.uka.de/~prechelt/)   | Whenever you 
  3083. Institut fuer Programmstrukturen und Datenorganisation  | complicate things,
  3084. Universitaet Karlsruhe;  76128 Karlsruhe;  Germany      | they get
  3085. (Voice: +49/721/608-4068, FAX: +49/721/694092)          | less simple.
  3086.