home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #20 / NN_1992_20.iso / spool / comp / ai / neuraln / 3476 < prev    next >
Encoding:
Internet Message Format  |  1992-09-13  |  2.1 KB

  1. Path: sparky!uunet!sun-barr!cs.utexas.edu!qt.cs.utexas.edu!yale.edu!ira.uka.de!uka!i41s14!prechelt
  2. From: prechelt@i41s14.ira.uka.de (Lutz Prechelt)
  3. Newsgroups: comp.ai.neural-nets
  4. Subject: Comparison of SuperSAB vs. Quickprop
  5. Date: 14 Sep 1992 09:13:37 GMT
  6. Organization: University of Karlsruhe, FRG
  7. Lines: 54
  8. Distribution: world
  9. Message-ID: <191l41INNi23@iraul1.ira.uka.de>
  10. NNTP-Posting-Host: i41s14.ira.uka.de
  11.  
  12.  
  13. Has anybody compared the SuperSAB variant of Backpropagation 
  14. (Tollenaere) with the Quickprop variant (Fahlman) ?
  15.  
  16. I would like to know about any experiences.
  17. Or does somebody know about any paper where such a comparison is done
  18. or mentioned ?
  19.  
  20. Here are the principal references to SuperSAB and Quickprop:
  21.  
  22. @article{Tollenaere90,
  23.    author    = {Tom Tollenaere},
  24.    title     = {SuperSAB: Fast Adaptive Backpropagation with Good 
  25.                 Scaling Properties},
  26.    journal   = {Neural Networks},
  27.    year      = {1990},
  28.    Volume    = {3},
  29.    number    = {},
  30.    pages     = {561-573},
  31.    month     = {},
  32.    Class     = {nn, learning},
  33.    abstract  = {},
  34.    notes     = {^^, very good paper},
  35. }
  36.  
  37. @techreport{Fahlman88,
  38.    author    = {Scott E. Fahlman},
  39.    title     = {An Empirical Study of Learning Speed in Back-Propagation
  40.                 Networks},
  41.    institution = {School of Computer Science, Carnegie Mellon University},
  42.    year      = {1988},
  43.    Type      = {},
  44.    number    = {CMU-CS-88-162},
  45.    address   = {Pittsburgh, PA 15213},
  46.    month     = sep,
  47.    Class     = {nn, learning},
  48.    abstract  = {Excellent paper.
  49.                 discusses "what is a good benchmark?", encoder/decoder task,
  50.                 complement encoder/decoder, XOR,
  51.                 termination of learning, how to report learning times,
  52.                 tuning of backprop learning parameters, derivation of quickprop },
  53.    notes     = {^^, neuroprose},
  54. }
  55.  
  56.  
  57. Please reply by email, I will summarize.
  58.  
  59.   Lutz
  60.  
  61. -- 
  62. Lutz Prechelt   (email: prechelt@ira.uka.de)            | Whenever you 
  63. Institut fuer Programmstrukturen und Datenorganisation  | complicate things,
  64. Universitaet Karlsruhe;  D-7500 Karlsruhe 1;  Germany   | they get
  65. (Voice: ++49/721/608-4317, FAX: ++49/721/694092)        | less simple.
  66.