home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #19 / NN_1992_19.iso / spool / comp / ai / neuraln / 3335 < prev    next >
Encoding:
Internet Message Format  |  1992-08-27  |  8.2 KB

  1. Path: sparky!uunet!cis.ohio-state.edu!pacific.mps.ohio-state.edu!linac!uwm.edu!caen!sol.ctr.columbia.edu!ira.uka.de!uka!prechelt
  2. From: prechelt@i41s14.ira.uka.de (Lutz Prechelt)
  3. Newsgroups: comp.ai.neural-nets
  4. Subject: changes to "FAQ in comp.ai.neural-nets" -- monthly posting
  5. Supersedes: <nn.changes.posting_704427486@i41s14.ira.uka.de>
  6. Followup-To: comp.ai.neural-nets
  7. Date: 28 Aug 1992 02:20:32 GMT
  8. Organization: University of Karlsruhe, Germany
  9. Lines: 182
  10. Expires: 2 Oct 1992 02:18:13 GMT
  11. Message-ID: <nn.changes.posting_714968293@i41s14.ira.uka.de>
  12. Reply-To: prechelt@ira.uka.de (Lutz Prechelt)
  13. NNTP-Posting-Host: i41s14.ira.uka.de
  14. Keywords: modifications, new, additions, deletions
  15. Originator: prechelt@i41s14
  16.  
  17. *** nn.oldbody    Tue Jul 28 04:18:07 1992
  18. --- nn.body    Fri Aug  7 16:37:07 1992
  19. ***************
  20. *** 1,5 ****
  21.   
  22.   Archive-name: neural-net-faq
  23. ! Last-modified: 92/07/13
  24.   
  25.   (FAQ means "Frequently Asked Questions")
  26. --- 1,5 ----
  27.   
  28.   Archive-name: neural-net-faq
  29. ! Last-modified: 92/08/07
  30.   
  31.   (FAQ means "Frequently Asked Questions")
  32. ***************
  33. *** 128,132 ****
  34.     Such a summary should be announced in the original posting of the question
  35.     or request with a phrase like
  36. !     "Please email, I'll summarize"
  37.   
  38.     In such a case answers should NOT be posted to the newsgroup but instead
  39. --- 128,132 ----
  40.     Such a summary should be announced in the original posting of the question
  41.     or request with a phrase like
  42. !     "Please answer by email, I'll summarize"
  43.   
  44.     In such a case answers should NOT be posted to the newsgroup but instead
  45. ***************
  46. *** 201,212 ****
  47.      and weights; only local information; highly parallel operation ]
  48.   
  49.   A vague description is as follows:
  50. - A NN is a network of many very simple processors ("units"), each with a 
  51. - (small amount of) local memory, who are connected by unidirectional
  52. - communication channels ("connections"), which carry numeric (as 
  53. - opposed to symbolic) data.
  54. - The units operate only on their local data and on the inputs
  55. - they receive via the connections.
  56.   
  57.   The design motivation is what distinguishes neural networks from other
  58.   mathematical techniques:
  59. --- 201,219 ----
  60.      and weights; only local information; highly parallel operation ]
  61.   
  62. + First of all, when we are talking about a neural network, we *should*
  63. + usually better say "artificial neural network" (ANN), because that is
  64. + what we mean  most of the time. Biological neural networks are much
  65. + more complicated in their elementary structures than the mathematical
  66. + models we use for ANNs.
  67.   A vague description is as follows:
  68.   
  69. + An ANN is a network of many very simple processors ("units"), each
  70. + possibly having a (small amount of) local memory. The units are
  71. + connected by unidirectional communication channels ("connections"),
  72. + which carry numeric (as opposed to symbolic) data.  The units operate
  73. + only on their local data and on the inputs they receive via the
  74. + connections.
  75.   The design motivation is what distinguishes neural networks from other
  76.   mathematical techniques:
  77. ***************
  78. *** 286,295 ****
  79.   in layers) feedforward (i.e., the arcs joining nodes are
  80.   unidirectional, and there are no cycles) nets.
  81. - Back-propagation assumes knowledge of the right answer from a teacher and
  82. - uses gradient descent on the error (provided by the teacher) to train the
  83. - weights.
  84. - The activation function is (usually) a sigmoidal (i.e., bounded above and
  85. - below, but differentiable) function of a weighted sum of the nodes inputs.
  86.   
  87.   The use of a gradient descent algorithm to train its weights makes it
  88.   slow to train; but being a feedforward algorithm, it is quite rapid during
  89. --- 293,303 ----
  90.   in layers) feedforward (i.e., the arcs joining nodes are
  91.   unidirectional, and there are no cycles) nets.
  92.   
  93. + Back-propagation needs a teacher that knows the correct output for any
  94. + input ("supervised learning") and uses gradient descent on the error
  95. + (as provided by the teacher) to train the weights.  The activation
  96. + function is (usually) a sigmoidal (i.e., bounded above and below, but
  97. + differentiable) function of a weighted sum of the nodes inputs.
  98.   The use of a gradient descent algorithm to train its weights makes it
  99.   slow to train; but being a feedforward algorithm, it is quite rapid during
  100. ***************
  101. *** 301,305 ****
  102.     Microstructure of Cognition (volume 1, pp 318-362). 
  103.     The MIT Press. 
  104. ! (this is the classic one) or one of the some thousand other books 
  105.   or articles on backpropagation  :->
  106.   
  107. --- 309,313 ----
  108.     Microstructure of Cognition (volume 1, pp 318-362). 
  109.     The MIT Press. 
  110. ! (this is the classic one) or one of the dozens of other books 
  111.   or articles on backpropagation  :->
  112.   
  113. ***************
  114. *** 458,461 ****
  115. --- 466,479 ----
  116.   understand".
  117.   
  118. + McClelland, J. L. and Rumelhart, D. E. (1988).
  119. + Explorations in Parallel Distributed Processing: Computational Models of 
  120. + Cognition and Perception (software manual). The MIT Press.
  121. + Comments: "Written in a tutorial style, and includes 2 diskettes of NN 
  122. + simulation programs that can be compiled on MS-DOS or Unix (and they do 
  123. + too !)"; "The programs are pretty reasonable as an introduction to some 
  124. + of the things that NNs can do."; "There are *two* editions of this book.  
  125. + One comes with disks for the IBM PC, the other comes with disks for the 
  126. + Macintosh".
  127.   McCord Nelson, M. and Illingworth, W.T. (1990). A Practical Guide to Neural 
  128.   Nets. Addison-Wesley Publishing Company, Inc. (ISBN 0-201-52376-0).
  129. ***************
  130. *** 560,573 ****
  131.   applications implementation".
  132.   
  133. - McClelland, J. L. and Rumelhart, D. E. (1988).
  134. - Explorations in Parallel Distributed Processing: Computational Models of 
  135. - Cognition and Perception (software manual). The MIT Press.
  136. - Comments: "Written in a tutorial style, and includes 2 diskettes of NN 
  137. - simulation programs that can be compiled on MS-DOS or Unix (and they do 
  138. - too !)"; "The programs are pretty reasonable as an introduction to some 
  139. - of the things that nns can do."; "There are *two* editions of this book.  
  140. - One comes with disks for the IBM PC, the other comes with disks for the 
  141. - Macintosh".
  142.   Pao, Y. H. (1989). Adaptive Pattern Recognition and Neural Networks
  143.   Addison-Wesley Publishing Company, Inc. (ISBN 0-201-12584-6)
  144. --- 578,581 ----
  145. ***************
  146. *** 973,976 ****
  147. --- 981,987 ----
  148.   2. Usenet groups comp.ai.neural-nets (Oha !  :-> )
  149.      and comp.theory.self-org-sys
  150. +    There is a periodic posting on comp.ai.neural-nets sent by
  151. +    srctran@world.std.com (Gregory Aharonian) about Neural Network 
  152. +    patents.
  153.   
  154.   3. Central Neural System Electronic Bulletin Board
  155. ***************
  156. *** 1016,1020 ****
  157.        (source code:)     rcs_v4.2.justsrc.tar.Z   (1.4 MB)
  158.   
  159.   2. UCLA-SFINX
  160.      ftp 131.179.16.6  (retina.cs.ucla.edu)
  161. --- 1027,1030 ----
  162. ***************
  163. *** 1158,1162 ****
  164.        Models, Programs, and Exercises" by McClelland and Rumelhart.
  165.        MIT Press, 1988.
  166. !    This book is often referred to as PDP vol III which is a very
  167.      misleading practice!  The book comes with software on an IBM disk but
  168.      includes a makefile for compiling on UNIX systems.  The version of
  169. --- 1168,1172 ----
  170.        Models, Programs, and Exercises" by McClelland and Rumelhart.
  171.        MIT Press, 1988.
  172. !    Comment: "This book is often referred to as PDP vol III which is a very
  173.      misleading practice!  The book comes with software on an IBM disk but
  174.      includes a makefile for compiling on UNIX systems.  The version of
  175. ***************
  176. *** 1163,1167 ****
  177.      PDP available at nic.funet.fi seems identical to the one with the book
  178.      except for a bug in bp.c which occurs when you try to run a script of
  179. !    PDP commands using the DO command.  This can be found and fixed easily.
  180.   
  181.   16. Xerion
  182. --- 1173,1177 ----
  183.      PDP available at nic.funet.fi seems identical to the one with the book
  184.      except for a bug in bp.c which occurs when you try to run a script of
  185. !    PDP commands using the DO command.  This can be found and fixed easily."
  186.   
  187.   16. Xerion
  188. -- 
  189. Lutz Prechelt   (email: prechelt@ira.uka.de)            | Whenever you 
  190. Institut fuer Programmstrukturen und Datenorganisation  | complicate things,
  191. Universitaet Karlsruhe;  D-7500 Karlsruhe 1;  Germany   | they get
  192. (Voice: ++49/721/608-4317, FAX: ++49/721/694092)        | less simple.
  193.