home *** CD-ROM | disk | FTP | other *** search
/ ftp.pasteur.org/FAQ/ / ftp-pasteur-org-FAQ.zip / FAQ / ai-faq / neural-nets / part7 < prev   
Encoding:
Internet Message Format  |  2003-01-01  |  65.2 KB

  1. From: saswss@unx.sas.com (Warren Sarle)
  2. Newsgroups: comp.ai.neural-nets,comp.answers,news.answers
  3. Subject: comp.ai.neural-nets FAQ, Part 7 of 7: Hardware
  4. Supersedes: <nn7.posting_1027967402@hotellng.unx.sas.com>
  5. Followup-To: comp.ai.neural-nets
  6. Date: 30 Dec 2002 22:30:17 GMT
  7. Organization: SAS Institute Inc., Cary, NC, USA
  8. Lines: 1464
  9. Approved: news-answers-request@MIT.EDU
  10. Expires: 3 Feb 2003 22:30:17 GMT
  11. Message-ID: <nn7.posting_1041287417@hotellng.unx.sas.com>
  12. Reply-To: saswss@unx.sas.com (Warren Sarle)
  13. NNTP-Posting-Host: hotellng.unx.sas.com
  14. X-Trace: license1.unx.sas.com 1041287417 7366 10.28.2.188 (30 Dec 2002 22:30:17 GMT)
  15. X-Complaints-To: usenet@unx.sas.com
  16. NNTP-Posting-Date: 30 Dec 2002 22:30:17 GMT
  17. Keywords: frequently asked questions, answers
  18. Originator: saswss@hotellng.unx.sas.com
  19. Path: senator-bedfellow.mit.edu!bloom-beacon.mit.edu!newsfeed.stanford.edu!newsfeed.berkeley.edu!news-hog.berkeley.edu!ucberkeley!newshub.sdsu.edu!news-xfer.cox.net!news.lightlink.com!vienna7.his.com!attws1!ip.att.net!lamb.sas.com!newshost!hotellng.unx.sas.com!saswss
  20. Xref: senator-bedfellow.mit.edu comp.ai.neural-nets:64343 comp.answers:52360 news.answers:243499
  21.  
  22. Archive-name: ai-faq/neural-nets/part7
  23. Last-modified: 2002-10-14
  24. URL: ftp://ftp.sas.com/pub/neural/FAQ7.html
  25. Maintainer: saswss@unx.sas.com (Warren S. Sarle)
  26.  
  27. Copyright 1997, 1998, 1999, 2000, 2001, 2002 by Warren S. Sarle, Cary, NC,
  28. USA. Answers provided by other authors as cited below are copyrighted by
  29. those authors, who by submitting the answers for the FAQ give permission for
  30. the answer to be reproduced as part of the FAQ in any of the ways specified
  31. in part 1 of the FAQ. 
  32.  
  33. This is part 7 (of 7) of a monthly posting to the Usenet newsgroup
  34. comp.ai.neural-nets. See the part 1 of this posting for full information
  35. what it is all about.
  36.  
  37. ========== Questions ========== 
  38. ********************************
  39.  
  40. Part 1: Introduction
  41. Part 2: Learning
  42. Part 3: Generalization
  43. Part 4: Books, data, etc.
  44. Part 5: Free software
  45. Part 6: Commercial software
  46. Part 7: Hardware and miscellaneous
  47.  
  48.    Neural Network hardware?
  49.    What are some applications of NNs?
  50.       General
  51.       Agriculture
  52.       Automotive
  53.       Chemistry
  54.       Criminology
  55.       Face recognition
  56.       Finance and economics
  57.       Games, sports, gambling
  58.       Industry
  59.       Materials science
  60.       Medicine
  61.       Music
  62.       Robotics
  63.       Weather forecasting
  64.       Weird
  65.    What to do with missing/incomplete data?
  66.    How to forecast time series (temporal sequences)?
  67.    How to learn an inverse of a function?
  68.    How to get invariant recognition of images under translation, rotation,
  69.    etc.?
  70.    How to recognize handwritten characters?
  71.    What about pulsed or spiking NNs?
  72.    What about Genetic Algorithms and Evolutionary Computation?
  73.    What about Fuzzy Logic?
  74.    Unanswered FAQs
  75.    Other NN links?
  76.  
  77. ------------------------------------------------------------------------
  78.  
  79. Subject: Neural Network hardware?
  80. =================================
  81.  
  82. Overview articles: 
  83.  
  84.  o Clark S. Lindsey and Thomas Lindblad (1998), "Review of hardware neural
  85.    networks: A user's perspective", 
  86.    http://www.particle.kth.se/~lindsey/elba2html/elba2html.html 
  87.  
  88.  o P. D. Moerland and E. Fiesler (1997), "Neural Network Adaptations to
  89.    Hardware Implementations", in Handbook of Neural Computation, 
  90.    http://www.idiap.ch/~perry/moerland-97.1.bib.abs.html 
  91.  
  92. The journal, IEEE Transactions on Neural Networks, plans to have a
  93. special issue on neural networks hardware implementations in September,
  94. 2003. 
  95.  
  96. Various NN hardware information can be found at the following web sites: 
  97.  
  98.  o Pacific Northwest National Laboratory:
  99.    http://www.emsl.pnl.gov:2080/proj/neuron/neural/systems/commercial.html 
  100.  o Dr. Denise Gorse, University College London:
  101.    http://www.cs.ucl.ac.uk/staff/D.Gorse/research/pRAM.html 
  102.  o Neural Chips and Evolvable Hardware:
  103.    http://glendhu.com/ai/neuralchips/ 
  104.  
  105. ------------------------------------------------------------------------
  106.  
  107. Subject: What are some applications of NNs?
  108. ===========================================
  109.  
  110. There are vast numbers of published neural network applications. If you
  111. don't find something from your field of interest below, try a web search.
  112. Here are some useful search engines:
  113. http://www.google.com/
  114. http://search.yahoo.com/
  115. http://www.altavista.com/
  116. http://www.deja.com/
  117.  
  118. General
  119. -------
  120.  
  121.  o The Pacific Northwest National Laboratory: 
  122.    http://www.emsl.pnl.gov:2080/proj/neuron/neural/ including a list of
  123.    commercial applications at 
  124.    http://www.emsl.pnl.gov:2080/proj/neuron/neural/products/ 
  125.  o The Stimulation Initiative for European Neural Applications: 
  126.    http://www.mbfys.kun.nl/snn/siena/cases/ 
  127.  o The DTI NeuroComputing Web's Applications Portfolio: 
  128.    http://www.globalweb.co.uk/nctt/portfolo/ 
  129.  o The Applications Corner, NeuroDimension, Inc.: 
  130.    http://www.nd.com/appcornr/purpose.htm 
  131.  o The BioComp Systems, Inc. Solutions page: http://www.bio-comp.com 
  132.  o Chen, C.H., ed. (1996) Fuzzy Logic and Neural Network Handbook, NY:
  133.    McGraw-Hill, ISBN 0-07-011189-8. 
  134.  o The series Advances in Neural Information Processing Systems containing
  135.    proceedings of the conference of the same name, published yearly by
  136.    Morgan Kauffman starting in 1989 and by The MIT Press in 1995. 
  137.  
  138. Agriculture
  139. -----------
  140.  
  141.  o P.H. Heinemann, Automated Grading of Produce: 
  142.    http://server.age.psu.edu/dept/fac/Heinemann/phhdocs/visionres.html
  143.  o Deck, S., C.T. Morrow, P.H. Heinemann, and H.J. Sommer, III. 1995.
  144.    Comparison of a neural network and traditional classifier for machine
  145.    vision inspection. Applied Engineering in Agriculture. 11(2):319-326. 
  146.  o Tao, Y., P.H. Heinemann, Z. Varghese, C.T. Morrow, and H.J. Sommer III.
  147.    1995. Machine vision for color inspection of potatoes and apples.
  148.    Transactions of the American Society of Agricultural Engineers.
  149.    38(5):1555-1561. 
  150.  
  151. Automotive
  152. ----------
  153.  
  154.  o "No Hands Across America Journal" - steering a car: 
  155.    http://cart.frc.ri.cmu.edu/users/hpm/project.archive/reference.file/Journal.html
  156.    Photos: 
  157.    http://www.techfak.uni-bielefeld.de/ags/ti/personen/zhang/seminar/intelligente-autos/tour.html
  158.  
  159. Chemistry
  160. ---------
  161.  
  162.  o PNNL, General Applications of Neural Networks in Chemistry and Chemical
  163.    Engineering: 
  164.    http://www.emsl.pnl.gov:2080/proj/neuron/neural/bib/chemistry.html. 
  165.  o Prof. Dr. Johann Gasteiger, Neural Networks and Genetic Algorithms in
  166.    Chemistry: 
  167.    http://www2.ccc.uni-erlangen.de/publications/publ_topics/publ_topics-12.html
  168.  o Roy Goodacre, pyrolysis mass spectrometry: 
  169.    http://gepasi.dbs.aber.ac.uk/roy/pymshome.htm and Fourier transform
  170.    infrared (FT-IR) spectroscopy: 
  171.    http://gepasi.dbs.aber.ac.uk/roy/ftir/ftirhome.htm contain applications
  172.    of a variety of NNs as well as PLS (partial least squares) and other
  173.    statistical methods. 
  174.  o Situs, a program package for the docking of protein crystal structures to
  175.    single-molecule, low-resolution maps from electron microscopy or small
  176.    angle X-ray scattering: http://chemcca10.ucsd.edu/~situs/ 
  177.  o An on-line application of a Kohonen network with a 2-dimensional output
  178.    layer for prediction of protein secondary structure percentages from UV
  179.    circular dichroism spectra: http://www.embl-heidelberg.de/~andrade/k2d/. 
  180.  
  181. Criminology
  182. -----------
  183.  
  184.  o Computer Aided Tracking and Characterization of Homicides and Sexual
  185.    Assaults (CATCH): 
  186.    http://lancair.emsl.pnl.gov:2080/proj/neuron/papers/kangas.spie99.abs.html
  187.  
  188. Face recognition
  189. ----------------
  190.  
  191.  o Face Recognition Home Page: http://www.cs.rug.nl/~peterkr/FACE/face.html 
  192.  o Konen, W., "Neural information processing in real-world face-recognition
  193.    applications," 
  194.    http://www.computer.muni.cz/pubs/expert/1996/trends/x4004/konen.htm 
  195.  o Jiang, Q., "Principal Component Analysis and Neural Network Based Face
  196.    Recognition," http://people.cs.uchicago.edu/~qingj/ThesisHtml/ 
  197.  o Lawrence, S., Giles, C.L., Tsoi, A.C., Back, A.D. (1997), "Face
  198.    Recognition: A Convolutional Neural Network Approach," IEEE Transactions
  199.    on Neural Networks, 8, 98-113, 
  200.    http://www.neci.nec.com/~lawrence/papers/face-tnn97/latex.html 
  201.  
  202. Finance and economics
  203. ---------------------
  204.  
  205.  o Athanasios Episcopos, References on Neural Net Applications to Finance
  206.    and Economics: http://www.compulink.gr/users/episcopo/neurofin.html 
  207.  o Franco Busetti, Heuristics and artificial intelligence in finance and
  208.    investment: http://www.geocities.com/francorbusetti/ 
  209.  o Trippi, R.R. & Turban, E. (1993), Neural Networks in Finance and
  210.    Investing, Chicago: Probus. 
  211.  o Zirilli, J.S. (1996), Financial Prediction Using Neural Networks,
  212.    International Thomson Publishing, ISBN 1850322341, 
  213.    http://www6.bcity.com/mjfutures/ 
  214.  o Andreas S. Weigend, Yaser Abu-Mostafa, A. Paul N. Refenes (eds.) (1997) 
  215.    Decision Technologies for Financial Engineering: Proceedings of the Fourth
  216.    International Conference on Neural Networks in the Capital Markets (Nncm
  217.    '96) Publisher: World Scientific Publishing Company, ISBN: 9810231245 
  218.  
  219. Games, sports, gambling
  220. -----------------------
  221.  
  222.  o General:
  223.  
  224.    Jay Scott, Machine Learning in Games: 
  225.    http://satirist.org/learn-game/index.html
  226.  
  227.    METAGAME Game-Playing Workbench: 
  228.    ftp://ftp.cl.cam.ac.uk/users/bdp/METAGAME
  229.  
  230.    R.S. Sutton, "Learning to predict by the methods of temporal
  231.    differences", Machine Learning 3, p. 9-44 (1988). 
  232.  
  233.    David E. Moriarty and Risto Miikkulainen (1994). "Evolving Neural
  234.    Networks to Focus Minimax Search," In Proceedings of Twelfth National
  235.    Conference on Artificial Intelligence (AAAI-94, Seattle, WA), 1371-1377.
  236.    Cambridge, MA: MIT Press, 
  237.    http://www.cs.utexas.edu/users/nn/pages/publications/neuro-evolution.html
  238.  
  239.    Games World '99 at http://gamesworld99.free.fr/menuframe.htm
  240.  
  241.  o Backgammon:
  242.  
  243.    G. Tesauro and T.J. Sejnowski (1989), "A Parallel Network that learns to
  244.    play Backgammon," Artificial Intelligence, vol 39, pp. 357-390. 
  245.  
  246.    G. Tesauro and T.J. Sejnowski (1990), "Neurogammon: A Neural Network
  247.    Backgammon Program," IJCNN Proceedings, vol 3, pp. 33-39, 1990. 
  248.  
  249.    G. Tesauro (1995), "Temporal Difference Learning and TD-Gammon,"
  250.    Communications of the ACM, 38, 58-68, 
  251.    http://www.research.ibm.com/massive/tdl.html 
  252.  
  253.    Pollack, J.P. and Blair, A.D. (1997), "Co-Evolution in the Successful
  254.    Learning of Backgammon Strategy," Brandeis University Computer Science
  255.    Technical Report CS-97-193, 
  256.    http://www.demo.cs.brandeis.edu/papers/long.html#hcgam97
  257.  
  258.  o Bridge:
  259.  
  260.    METAGAME: ftp://ftp.cl.cam.ac.uk/users/bdp/bridge.ps.Z
  261.  
  262.    He Yo, Zhen Xianjun, Ye Yizheng, Li Zhongrong (19??), "Knowledge
  263.    acquisition and reasoning based on neural networks - the research of a
  264.    bridge bidding system," INNC '90, Paris, vol 1, pp. 416-423. 
  265.  
  266.    M. Kohle and F. Schonbauer (19??), "Experience gained with a neural
  267.    network that learns to play bridge," Proc. of the 5th Austrian Artificial
  268.    Intelligence meeting, pp. 224-229. 
  269.  
  270.  o Checkers/Draughts: 
  271.  
  272.    Mark Lynch (1997), "NeuroDraughts: an application of temporal difference
  273.    learning to draughts," 
  274.    http://www.ai.univie.ac.at/~juffi/lig/Papers/lynch-thesis.ps.gz Software
  275.    available at 
  276.    http://satirist.org/learn-game/archive/NeuroDraughts-1.00.zip
  277.  
  278.    K. Chellapilla and D. B. Fogel, "Co-Evolving Checkers Playing Programs
  279.    using Only Win, Lose, or Draw," SPIE's AeroSense'99: Applications and
  280.    Science of Computational Intelligence II, Apr. 5-9, 1999, Orlando,
  281.    Florida, USA, http://vision.ucsd.edu/~kchellap/Publications.html 
  282.  
  283.    David Fogel (1999), Evolutionary Computation: Toward a New Philosophy
  284.    of Machine Intelligence (2nd edition), IEEE, ISBN: 078035379X 
  285.  
  286.    David Fogel (2001), Blondie24: Playing at the Edge of AI, Morgan Kaufmann
  287.    Publishers, ISBN: 1558607838
  288.    According to the publisher, this is: 
  289.  
  290.    ... the first book to bring together the most advanced work in the
  291.    general use of evolutionary computation for creative results. It is
  292.    well suited for the general computer science audience. 
  293.  
  294.    Here's the story of a computer that taught itself to play checkers
  295.    far better than its creators ever could. Blondie24 uses a program
  296.    that emulates the basic principles of Darwin evolution to discover on
  297.    its own how to excel at the game. Through this entertaining story,
  298.    the book provides the reader some of the history of AI and explores
  299.    its future. 
  300.  
  301.    Unlike Deep Blue, the celebrated chess machine that beat Garry
  302.    Kasparov, the former world champion chess player, this evolutionary
  303.    program didn't have access to other games played by human grand
  304.    masters, or databases of moves for the endgame. It created its own
  305.    means for evaluating the patterns of pieces that it experienced by
  306.    evolving artificial neural networks--mathematical models that loosely
  307.    describe how a brain works. 
  308.  
  309. See http://www.natural-selection.com/NSIPublicationsOnline.htm for a variety
  310. of online papers by Fogel. 
  311.  
  312. Not NNs, but classic papers:
  313.  
  314. A.L. Samuel (1959), "Some studies in machine learning using the game of
  315. checkers," IBM journal of Research and Development, vol 3, nr. 3, pp.
  316. 210-229. 
  317.  
  318. A.L. Samuel (1967), "Some studies in machine learning using the game of
  319. checkers 2 - recent progress," IBM journal of Research and Development, vol
  320. 11, nr. 6, pp. 601-616. 
  321.  
  322. o Chess:
  323.  
  324. Sebastian Thrun, NeuroChess: 
  325. http://satirist.org/learn-game/systems/neurochess.html
  326.  
  327. Luke Pellen, Octavius: http://home.seol.net.au/luke/octavius/
  328.  
  329. Louis Savain (AKA Nemesis), Animal, a spiking neural network that the author
  330. hopes will learn to play a passable game of chess after he implements the
  331. motivation mechanism: 
  332. http://home1.gte.net/res02khr/AI/Temporal_Intelligence.htm
  333.  
  334. o Dog racing:
  335.  
  336. H. Chen, P. Buntin Rinde, L. She, S. Sutjahjo, C. Sommer, D. Neely (1994),
  337. "Expert Prediction, Symbolic Learning, and Neural Networks: An Experiment on
  338. Greyhound Racing," IEEE Expert, December 1994, 21-27, 
  339. http://ai.bpa.arizona.edu/papers/dog93/dog93.html
  340.  
  341. o Football (Soccer):
  342.  
  343. Kuonen Diego, "Statistical Models for Knock-out Soccer Tournaments", 
  344. http://dmawww.epfl.ch/~kuonen/CALCIO/ (not neural nets, but relevant)
  345.  
  346. o Go:
  347.  
  348. David Stoutamire (19??), "Machine Learning, Game Play, and Go," Center for
  349. Automation and Intelligent Systems Research TR 91-128, Case Western Reserve
  350. University. http://www.stoutamire.com/david/publications.html 
  351.  
  352. David Stoutamire (1991), Machine Learning Applied to Go, M.S. thesis, Case
  353. Western Reserve University, ftp://ftp.cl.cam.ac.uk/users/bdp/go.ps.Z 
  354.  
  355. Schraudolph, N., Dayan, P., Sejnowski, T. (1994), "Temporal Difference
  356. Learning of Position Evaluation in the Game of Go," In: Neural Information
  357. Processing Systems 6, Morgan Kaufmann 1994, 
  358. ftp://bsdserver.ucsf.edu/Go/comp/td-go.ps.Z 
  359.  
  360. P. Donnelly, P. Corr & D. Crookes (1994), "Evolving Go Playing Strategy in
  361. Neural Networks", AISB Workshop on Evolutionary Computing, Leeds, England, 
  362. ftp://www.joy.ne.jp/welcome/igs/Go/computer/egpsnn.ps.Z or 
  363. ftp://ftp.cs.cuhk.hk/pub/neuro/GO/techreports/egpsnn.ps.Z 
  364.  
  365. Markus Enzenberger (1996), "The Integration of A Priori Knowledge into a Go
  366. Playing Neural Network," 
  367. http://www.cgl.ucsf.edu/go/Programs/neurogo-html/neurogo.html 
  368.  
  369. Norman Richards, David Moriarty, and Risto Miikkulainen (1998), "Evolving
  370. Neural Networks to Play Go," Applied Intelligence, 8, 85-96, 
  371. http://www.cs.utexas.edu/users/nn/pages/publications/neuro-evolution.html 
  372.  
  373. Dahl, F. A. (1999), "Honte, a Go-playing program using neural nets", 
  374. http://www.ai.univie.ac.at/icml-99-ws-games/papers/dahl.ps.gz 
  375.  
  376. o Go-Moku:
  377.  
  378. Freisleben, B., "Teaching a Neural Network to Play GO-MOKU," in I.
  379. Aleksander and J. Taylor, eds, Artificial Neural Networks 2, Proc. of
  380. ICANN-92, Brighton UK, vol. 2, pp. 1659-1662, Elsevier Science Publishers,
  381. 1992 
  382.  
  383. Katz, W.T. and Pham, S.P. "Experience-Based Learning Experiments using
  384. Go-moku", Proc. of the 1991 IEEE International Conference on Systems, Man,
  385. and Cybernetics, 2: 1405-1410, October 1991. 
  386.  
  387. o Olympics:
  388.  
  389. E.M.Condon, B.L.Golden, E.A.Wasil (1999), "Predicting the success of nations
  390. at the Summer Olympics using neural networks", Computers & Operations
  391. Research, 26, 1243-1265. 
  392.  
  393. o Pong:
  394.  
  395. http:// www.engin.umd.umich.edu/~watta/MM/pong/pong5.html 
  396.  
  397. o Reversi/Othello:
  398.  
  399. David E. Moriarty and Risto Miikkulainen (1995). Discovering Complex Othello
  400. Strategies through Evolutionary Neural Networks. Connection Science, 7,
  401. 195-209, 
  402. http://www.cs.utexas.edu/users/nn/pages/publications/neuro-evolution.html 
  403.  
  404. Yoshioka, T., Ishii, S., and Ito, M., Strategy acquisition for the game
  405. ``Othello'' based on reinforcement learning, IEICE Transactions on
  406. Information and Systems E82-D 12, 1618-1626, 1999, 
  407. http://mimi.aist-nara.ac.jp/~taku-y/ 
  408.  
  409. o Tic-Tac-Toe/Noughts and Crosses:
  410.  
  411. Fogel, David Bb (1993), "Using evolutionary programming to construct neural
  412. networks that are capable of playing tic-tac-toe," Intern. Conf. on Neural
  413. Networks 1993, IEEE, San Francisco, CA, pp. 875-880. 
  414.  
  415. Richard S. Sutton and Andrew G. Barto (1998), Reinforcement Learning: An
  416. Introduction The MIT Press, ISBN: 0262193981, 
  417. http://www-anw.cs.umass.edu/~rich/book/the-book.html 
  418.  
  419. Yongzheng Zhang, Chen Teng, Sitan Wei (2000), "Game playing with
  420. Evolutionary Strategies and Modular Neural Networks: Tic-Tac-Toe," 
  421. http://www.cs.dal.ca/~mheywood/GAPproject/EvolvingGamePlay.html 
  422.  
  423. Rob Ellison, "Neural Os and Xs," 
  424. http://www.catfood.demon.co.uk/beta/game.html (An online Javascript demo,
  425. but you may not live long enough to teach the network to play a mediocre
  426. game. I'm not sure what kind of network it uses, but maybe you can figure
  427. that out if you read the source.) 
  428.  
  429. http://listserv.ac.il/~dvorkind/TicTacToe/main_doc.htm, Java classes by Tsvi
  430. Dvorkind, using reinforcement learning. 
  431.  
  432. Industry
  433. --------
  434.  
  435.  o PNNL, Neural Network Applications in Manufacturing: 
  436.    http://www.emsl.pnl.gov:2080/proj/neuron/neural/bib/manufacturing.html. 
  437.  o PNNL, Applications in the Electric Power Industry: 
  438.    http://www.emsl.pnl.gov:2080/proj/neuron/neural/bib/power.html. 
  439.  o PNNL, Process Control: 
  440.    http://www.emsl.pnl.gov:2080/proj/neuron/neural/bib/process.html. 
  441.  o Raoul Tawel, Ken Marko, and Lee Feldkamp (1998), "Custom VLSI ASIC for
  442.    Automotive Applications with Recurrent Networks", 
  443.    http://www.jpl.nasa.gov/releases/98/ijcnn98.pdf 
  444.  o Otsuka, Y. et al. "Neural Networks and Pattern Recognition of Blast
  445.    Furnace Operation Data" Kobelco Technology Review, Oct. 1992, 12 
  446.  o Otsuka, Y. et al. "Applications of Neural Network to Iron and Steel
  447.    Making Processes" 2. International Conference on Fuzzy Logic and Neural
  448.    Networks, Iizuka, 1992 
  449.  o Staib, W.E. "Neural Network Control System for Electric Arc Furnaces"
  450.    M.P.T. International, 2/1995, 58-61 
  451.  o Portmann, N. et al. "Application of Neural Networks in Rolling
  452.    Automation" Iron and Steel Engineer, Feb. 1995, 33-36 
  453.  o Gorni, A.A. (2000), "The modelling of hot rolling processes using neural
  454.    networks: A bibliographical review", 
  455.    http://www.geocities.com/SiliconValley/5978/neural_1998.html 
  456.  o Murat, M. E., and Rudman, A. J., 1992, Automated first arrival picking: A
  457.    neural network approach: Geophysical Prospecting, 40, 587-604. 
  458.  
  459. Materials science
  460. -----------------
  461.  
  462.  o Phase Transformations Research Group (search for "neural"): 
  463.    http://www.msm.cam.ac.uk/phase-trans/pubs/ptpuball.html 
  464.  
  465. Medicine
  466. --------
  467.  
  468.  o PNNL, Applications in Medicine and Health: 
  469.    http://www.emsl.pnl.gov:2080/proj/neuron/neural/bib/medicine.html. 
  470.  
  471. Music
  472. -----
  473.  
  474.  o Mozer, M. C. (1994), "Neural network music composition by prediction:
  475.    Exploring the benefits of psychophysical constraints and multiscale
  476.    processing," Connection Science, 6, 247-280, 
  477.    http://www.cs.colorado.edu/~mozer/papers/music.html. 
  478.  o Griffith, N., and Todd, P.M., eds. (1999), Musical Networks: Parallel
  479.    Distributed Perception and Performance, Cambridge, MA: The MIT Press,
  480.    ISBN 0-262-07181-9. 
  481.  
  482. Robotics
  483. --------
  484.  
  485.  o Institute of Robotics and System Dynamics: 
  486.    http://www.robotic.dlr.de/LEARNING/ 
  487.  o UC Berkeley Robotics and Intelligent Machines Lab: 
  488.    http://robotics.eecs.berkeley.edu/ 
  489.  o Perth Robotics and Automation Laboratory: 
  490.    http://telerobot.mech.uwa.edu.au/ 
  491.  o University of New Hampshire Robot Lab: 
  492.    http://www.ece.unh.edu/robots/rbt_home.htm 
  493.  
  494. Weather forecasting and atmospheric science
  495. -------------------------------------------
  496.  
  497.  o UBC Climate Prediction Group: 
  498.    http://www.ocgy.ubc.ca/projects/clim.pred/index.html 
  499.  o Artificial Intelligence Research In Environmental Science: 
  500.    http://www.salinas.net/~jpeak/airies/airies.html 
  501.  o MET-AI, an mailing list for meteorologists and AI researchers: 
  502.    http://www.comp.vuw.ac.nz/Research/met-ai 
  503.  o Caren Marzban, Ph.D., Research Scientist, National Severe Storms
  504.    Laboratory: http://www.nhn.ou.edu/~marzban/ 
  505.  o David Myers's references on NNs in atmospheric science: 
  506.    http://terra.msrc.sunysb.edu/~dmyers/ai_refs 
  507.  
  508. Weird
  509. -----
  510.  
  511. Zaknich, Anthony and Baker, Sue K. (1998), "A real-time system for the
  512. characterisation of sheep feeding phases from acoustic signals of jaw
  513. sounds," Australian Journal of Intelligent Information Processing Systems
  514. (AJIIPS), Vol. 5, No. 2, Winter 1998. 
  515.  
  516. Abstract
  517. This paper describes a four-channel real-time system for the detection and
  518. measurement of sheep rumination and mastication time periods by the analysis
  519. of jaw sounds transmitted through the skull. The system is implemented using
  520. an 80486 personal computer, a proprietary data acquisition card (PC-126) and
  521. a custom made variable gain preamplifier and bandpass filter module. Chewing
  522. sounds are transduced and transmitted to the system using radio microphones
  523. attached to the top of the sheep heads. The system's main functions are to
  524. detect and estimate rumination and mastication time periods, to estimate the
  525. number of chews during the rumination and mastication periods, and to
  526. provide estimates of the number of boli in the rumination sequences and the
  527. number of chews per bolus. The individual chews are identified using a
  528. special energy threshold detector. The rumination and mastication time
  529. periods are determined by neural network classifier using a combination of
  530. time and frequency domain features extracted from successive 10 second
  531. acoustic signal blocks. 
  532.  
  533. ------------------------------------------------------------------------
  534.  
  535. Subject: What to do with missing/incomplete data? 
  536. ==================================================
  537.  
  538. The problem of missing data is very complex. 
  539.  
  540. For unsupervised learning, conventional statistical methods for missing data
  541. are often appropriate (Little and Rubin, 1987; Schafer, 1997; Schafer and
  542. Olsen, 1998). There is a concise introduction to these methods in the
  543. University of Texas statistics FAQ at 
  544. http://www.utexas.edu/cc/faqs/stat/general/gen25.html. 
  545.  
  546. For supervised learning, the considerations are somewhat different, as
  547. discussed by Sarle (1998). The statistical literature on missing data deals
  548. almost exclusively with training rather than prediction (e.g., Little,
  549. 1992). For example, if you have only a small proportion of cases with
  550. missing data, you can simply throw those cases out for purposes of training;
  551. if you want to make predictions for cases with missing inputs, you don't
  552. have the option of throwing those cases out! In theory, Bayesian methods
  553. take care of everything, but a full Bayesian analysis is practical only with
  554. special models (such as multivariate normal distributions) or small sample
  555. sizes. The neural net literature contains a few good papers that cover
  556. prediction with missing inputs (e.g., Ghahramani and Jordan, 1997; Tresp,
  557. Neuneier, and Ahmad 1995), but much research remains to be done. 
  558.  
  559. References: 
  560.  
  561.    Donner, A. (1982), "The relative effectiveness of procedures commonly
  562.    used in multiple regression analysis for dealing with missing values,"
  563.    American Statistician, 36, 378-381. 
  564.  
  565.    Ghahramani, Z. and Jordan, M.I. (1994), "Supervised learning from
  566.    incomplete data via an EM approach," in Cowan, J.D., Tesauro, G., and
  567.    Alspector, J. (eds.) Advances in Neural Information Processing Systems
  568.    6, San Mateo, CA: Morgan Kaufman, pp. 120-127. 
  569.  
  570.    Ghahramani, Z. and Jordan, M.I. (1997), "Mixture models for Learning from
  571.    incomplete data," in Greiner, R., Petsche, T., and Hanson, S.J. (eds.) 
  572.    Computational Learning Theory and Natural Learning Systems, Volume IV:
  573.    Making Learning Systems Practical, Cambridge, MA: The MIT Press, pp.
  574.    67-85. 
  575.  
  576.    Jones, M.P. (1996), "Indicator and stratification methods for missing
  577.    explanatory variables in multiple linear regression," J. of the American
  578.    Statistical Association, 91, 222-230. 
  579.  
  580.    Little, R.J.A. (1992), "Regression with missing X's: A review," J. of the
  581.    American Statistical Association, 87, 1227-1237. 
  582.  
  583.    Little, R.J.A. and Rubin, D.B. (1987), Statistical Analysis with Missing
  584.    Data, NY: Wiley. 
  585.  
  586.    McLachlan, G.J. (1992) Discriminant Analysis and Statistical Pattern
  587.    Recognition, Wiley. 
  588.  
  589.    Sarle, W.S. (1998), "Prediction with Missing Inputs," in Wang, P.P.
  590.    (ed.), JCIS '98 Proceedings, Vol II, Research Triangle Park, NC, 399-402,
  591.    ftp://ftp.sas.com/pub/neural/JCIS98.ps. 
  592.  
  593.    Schafer, J.L. (1997), Analysis of Incomplete Multivariate Data, London:
  594.    Chapman & Hall, ISBN 0 412 04061 1. 
  595.  
  596.    Schafer, J.L., and Olsen, M.K. (1998), "Multiple imputation for
  597.    multivariate missing-data problems: A data analyst's perspective," 
  598.    http://www.stat.psu.edu/~jls/mbr.pdf or 
  599.    http://www.stat.psu.edu/~jls/mbr.ps 
  600.  
  601.    Tresp, V., Ahmad, S. and Neuneier, R., (1994), "Training neural networks
  602.    with deficient data", in Cowan, J.D., Tesauro, G., and Alspector, J.
  603.    (eds.) Advances in Neural Information Processing Systems 6, San Mateo,
  604.    CA: Morgan Kaufman, pp. 128-135. 
  605.  
  606.    Tresp, V., Neuneier, R., and Ahmad, S. (1995), "Efficient methods for
  607.    dealing with missing data in supervised learning", in Tesauro, G.,
  608.    Touretzky, D.S., and Leen, T.K. (eds.) Advances in Neural Information
  609.    Processing Systems 7, Cambridge, MA: The MIT Press, pp. 689-696. 
  610.  
  611. ------------------------------------------------------------------------
  612.  
  613. Subject: How to forecast time series (temporal sequences)?
  614. ==========================================================
  615.  
  616. In most of this FAQ, it is assumed that the training cases are statistically
  617. independent. That is, the training cases consist of pairs of input and
  618. target vectors, (X_i,Y_i), i=1,...,N, such that the conditional
  619. distribution of Y_i given all the other training data, (X_j,
  620. j=1,...,N, and Y_j, j=1,...i-1,i+1,...N) is equal to the
  621. conditional distribution of Y_i given X_i regardless of the values in the
  622. other training cases. Independence of cases is often achieved by random
  623. sampling. 
  624.  
  625. The most common violation of the independence assumption occurs when cases
  626. are observed in a certain order relating to time or space. That is, case 
  627. (X_i,Y_i) corresponds to time T_i, with T_1 < T_2 < ... <
  628. T_N. It is assumed that the current target Y_i may depend not only on 
  629. X_i but also on (X_i,Y_i) in the recent past. If the T_i are equally
  630. spaced, the simplest way to deal with this dependence is to include
  631. additional inputs (called lagged variables, shift registers, or a tapped
  632. delay line) in the network. Thus, for target Y_i, the inputs may include 
  633. X_i, Y_{i-1}, X_{i-1}, Y_{i-1}, X_{i-2}, etc. (In some
  634. situations, X_i would not be known at the time you are trying to forecast 
  635. Y_i and would therefore be excluded from the inputs.) Then you can train
  636. an ordinary feedforward network with these targets and lagged variables. The
  637. use of lagged variables has been extensively studied in the statistical and
  638. econometric literature (Judge, Griffiths, Hill, Lⁿtkepohl and Lee, 1985). A
  639. network in which the only inputs are lagged target values is called an
  640. "autoregressive model." The input space that includes all of the lagged
  641. variables is called the "embedding space." 
  642.  
  643. If the T_i are not equally spaced, everything gets much more complicated.
  644. One approach is to use a smoothing technique to interpolate points at
  645. equally spaced intervals, and then use the interpolated values for training
  646. instead of the original data. 
  647.  
  648. Use of lagged variables increases the number of decisions that must be made
  649. during training, since you must consider which lags to include in the
  650. network, as well as which input variables, how many hidden units, etc.
  651. Neural network researchers have therefore attempted to use partially
  652. recurrent networks instead of feedforward networks with lags (Weigend and
  653. Gershenfeld, 1994). Recurrent networks store information about past values
  654. in the network itself. There are many different kinds of recurrent
  655. architectures (Hertz, Krogh, and Palmer 1991; Mozer, 1994; Horne and Giles,
  656. 1995; Kremer, 199?). For example, in time-delay neural networks (Lang,
  657. Waibel, and Hinton 1990), the outputs for predicting target Y_{i-1} are
  658. used as inputs when processing target Y_i. Jordan networks (Jordan, 1986)
  659. are similar to time-delay neural networks except that the feedback is an
  660. exponential smooth of the sequence of output values. In Elman networks
  661. (Elman, 1990), the hidden unit activations that occur when processing target
  662. Y_{i-1} are used as inputs when processing target Y_i. 
  663.  
  664. However, there are some problems that cannot be dealt with via recurrent
  665. networks alone. For example, many time series exhibit trend, meaning that
  666. the target values tend to go up over time, or that the target values tend to
  667. go down over time. For example, stock prices and many other financial
  668. variables usually go up. If today's price is higher than all previous
  669. prices, and you try to forecast tomorrow's price using today's price as a
  670. lagged input, you are extrapolating, and extrapolating is unreliable. The
  671. simplest methods for handling trend are: 
  672.  
  673.  o First fit a linear regression predicting the target values from the time,
  674.    Y_i = a + b T_i + noise, where a and b are regression
  675.    weights. Compute residuals R_i = Y_i - (a + b T_i). Then
  676.    train the network using R_i for the target and lagged values. This
  677.    method is rather crude but may work for deterministic linear trends. Of
  678.    course, for nonlinear trends, you would need to fit a nonlinear
  679.    regression. 
  680.  
  681.  o Instead of using Y_i as a target, use D_i = Y_i - Y_{i-1} for
  682.    the target and lagged values. This is called differencing and is the
  683.    standard statistical method for handling nondeterministic (stochastic)
  684.    trends. Sometimes it is necessary to compute differences of differences. 
  685.  
  686. For an elementary discussion of trend and various other practical problems
  687. in forecasting time series with NNs, such as seasonality, see Masters
  688. (1993). For a more advanced discussion of NN forecasting of economic series,
  689. see Moody (1998). 
  690.  
  691. There are several different ways to compute forecasts. For simplicity, let's
  692. assume you have a simple time series, Y_1, ..., Y_99, you want to
  693. forecast future values Y_f for f > 99, and you decide to use three
  694. lagged values as inputs. The possibilities include: 
  695.  
  696. Single-step, one-step-ahead, or open-loop forecasting: 
  697.    Train a network with target Y_i and inputs Y_{i-1}, Y_{i-2},
  698.    and Y_{i-3}. Let the scalar function computed by the network be
  699.    designated as Net(.,.,.) taking the three input values as arguments
  700.    and returning the output (predicted) value. Then:
  701.    forecast Y_100 as Net(Y_99,Y_98,Y_97)
  702.    forecast Y_101 as Net(Y_100,Y_99,Y_98)
  703.    forecast Y_102 as Net(Y_101,Y_100,Y_99)
  704.    forecast Y_103 as Net(Y_102,Y_101,Y_100)
  705.    forecast Y_104 as Net(Y_103,Y_102,Y_101)
  706.    and so on. 
  707.  
  708. Multi-step or closed-loop forecasting: 
  709.    Train the network as above, but:
  710.    forecast Y_100 as P_100 = Net(Y_99,Y_98,Y_97)
  711.    forecast Y_101 as P_101 = Net(P_100,Y_99,Y_98)
  712.    forecast Y_102 as P_102 = Net(P_101,P_100,Y_99)
  713.    forecast Y_103 as P_103 = Net(P_102,P_101,P_100)
  714.    forecast Y_104 as P_104 = Net(P_103,P_102,P_101)
  715.    and so on. 
  716.  
  717. N-step-ahead forecasting: 
  718.    For, say, N=3, train the network as above, but:
  719.    compute P_100 = Net(Y_99,Y_98,Y_97)
  720.    compute P_101 = Net(P_100,Y_99,Y_98)
  721.    forecast Y_102 as P_102 = Net(P_101,P_100,Y_99)
  722.    forecast Y_103 as P_103 = Net(P_102,P_101,Y_100)
  723.    forecast Y_104 as P_104 = Net(P_103,P_102,Y_101)
  724.    and so on. 
  725.  
  726. Direct simultaneous long-term forecasting: 
  727.    Train a network with multiple targets Y_i, Y_{i+1}, and Y_{i+2}
  728.    and inputs Y_{i-1}, Y_{i-2}, and Y_{i-3}. Let the vector
  729.    function computed by the network be designated as Net3(.,.,.),
  730.    taking the three input values as arguments and returning the output
  731.    (predicted) vector. Then:
  732.    forecast (Y_100,Y_101,Y_102) as Net3(Y_99,Y_98,Y_97)
  733.  
  734. Which method you choose for computing forecasts will obviously depend in
  735. part on the requirements of your application. If you have yearly sales
  736. figures through 1999 and you need to forecast sales in 2003, you clearly
  737. can't use single-step forecasting. If you need to compute forecasts at a
  738. thousand different future times, using direct simultaneous long-term
  739. forecasting would require an extremely large network. 
  740.  
  741. If a time series is a random walk, a well-trained network will predict Y_i
  742. by simply outputting Y_{i-1}. If you make a plot showing both the target
  743. values and the outputs, the two curves will almost coincide, except for
  744. being offset by one time step. People often mistakenly intrepret such a plot
  745. to indicate good forecasting accuracy, whereas in fact the network is
  746. virtually useless. In such situations, it is more enlightening to plot
  747. multi-step forecasts or N-step-ahead forecasts. 
  748.  
  749. For general information on time-series forecasting, see the following URLs: 
  750.  
  751.  o Forecasting FAQs: http://forecasting.cwru.edu/faqs.html 
  752.  o Forecasting Principles: http://hops.wharton.upenn.edu/forecast/ 
  753.  o Investment forecasts for stocks and mutual funds: 
  754.    http://www.coe.uncc.edu/~hphillip/ 
  755.  
  756. References: 
  757.  
  758.    Elman, J.L. (1990), "Finding structure in time," Cognitive Science, 14,
  759.    179-211. 
  760.  
  761.    Hertz, J., Krogh, A., and Palmer, R. (1991). Introduction to the Theory of
  762.    Neural Computation. Addison-Wesley: Redwood City, California. 
  763.  
  764.    Horne, B. G. and Giles, C. L. (1995), "An experimental comparison of
  765.    recurrent neural networks," In Tesauro, G., Touretzky, D., and Leen, T.,
  766.    editors, Advances in Neural Information Processing Systems 7, pp.
  767.    697-704. The MIT Press. 
  768.  
  769.    Jordan, M. I. (1986), "Attractor dynamics and parallelism in a
  770.    connectionist sequential machine," In Proceedings of the Eighth Annual
  771.    conference of the Cognitive Science Society, pages 531-546. Lawrence
  772.    Erlbaum. 
  773.  
  774.    Judge, G.G., Griffiths, W.E., Hill, R.C., Lⁿtkepohl, H., and Lee, T.-C.
  775.    (1985), The Theory and Practice of Econometrics, NY: John Wiley & Sons. 
  776.  
  777.    Kremer, S.C. (199?), "Spatio-temporal Connectionist Networks: A Taxonomy
  778.    and Review," 
  779.    http://hebb.cis.uoguelph.ca/~skremer/Teaching/27642/dynamic2/review.html.
  780.  
  781.    Lang, K. J., Waibel, A. H., and Hinton, G. (1990), "A time-delay neural
  782.    network architecture for isolated word recognition," Neural Networks, 3,
  783.    23-44. 
  784.  
  785.    Masters, T. (1993). Practical Neural Network Recipes in C++, San Diego:
  786.    Academic Press. 
  787.  
  788.    Moody, J. (1998), "Forecasting the economy with neural nets: A survey of
  789.    challenges and solutions," in Orr, G,B., and Mueller, K-R, eds., Neural
  790.    Networks: Tricks of the Trade, Berlin: Springer. 
  791.  
  792.    Mozer, M.C. (1994), "Neural net architectures for temporal sequence
  793.    processing," in Weigend, A.S. and Gershenfeld, N.A., eds. (1994) Time
  794.    Series Prediction: Forecasting the Future and Understanding the Past,
  795.    Reading, MA: Addison-Wesley, 243-264, 
  796.    http://www.cs.colorado.edu/~mozer/papers/timeseries.html. 
  797.  
  798.    Weigend, A.S. and Gershenfeld, N.A., eds. (1994) Time Series Prediction:
  799.    Forecasting the Future and Understanding the Past, Reading, MA:
  800.    Addison-Wesley. 
  801.  
  802. ------------------------------------------------------------------------
  803.  
  804. Subject: How to learn an inverse of a function? 
  805. ================================================
  806.  
  807. Ordinarily, NNs learn a function Y = f(X), where Y is a vector of
  808. outputs, X is a vector of inputs, and f() is the function to be learned.
  809. Sometimes, however, you may want to learn an inverse of a function f(),
  810. that is, given Y, you want to be able to find an X such that Y = f(X).
  811. In general, there may be many different Xs that satisfy the equation Y =
  812. f(X). 
  813.  
  814. For example, in robotics (DeMers and Kreutz-Delgado, 1996, 1997), X might
  815. describe the positions of the joints in a robot's arm, while Y would
  816. describe the location of the robot's hand. There are simple formulas to
  817. compute the location of the hand given the positions of the joints, called
  818. the "forward kinematics" problem. But there is no simple formula for the
  819. "inverse kinematics" problem to compute positions of the joints that yield a
  820. given location for the hand. Furthermore, if the arm has several joints,
  821. there will usually be many different positions of the joints that yield the
  822. same location of the hand, so the forward kinematics function is many-to-one
  823. and has no unique inverse. Picking any X such that Y = f(X) is OK if
  824. the only aim is to position the hand at Y. However if the aim is to
  825. generate a series of points to move the hand through an arc this may be
  826. insufficient. In this case the series of Xs need to be in the same "branch"
  827. of the function space. Care must be taken to avoid solutions that yield
  828. inefficient or impossible movements of the arm. 
  829.  
  830. As another example, consider an industrial process in which X represents
  831. settings of control variables imposed by an operator, and Y represents
  832. measurements of the product of the industrial process. The function Y =
  833. f(X) can be learned by a NN using conventional training methods. But the
  834. goal of the analysis may be to find control settings X that yield a product
  835. with specified measurements Y, in which case an inverse of f(X) is
  836. required. In industrial applications, financial considerations are
  837. important, so not just any setting X that yields the desired result Y may
  838. be acceptable. Perhaps a function can be specified that gives the cost of X
  839. resulting from energy consumption, raw materials, etc., in which case you
  840. would want to find the X that minimizes the cost function while satisfying
  841. the equation Y = f(X). 
  842.  
  843. The obvious way to try to learn an inverse function is to generate a set of
  844. training data from a given forward function, but designate Y as the input
  845. and X as the output when training the network. Using a least-squares error
  846. function, this approach will fail if f() is many-to-one. The problem is
  847. that for an input Y, the net will not learn any single X such that Y =
  848. f(X), but will instead learn the arithmetic mean of all the Xs in the
  849. training set that satisfy the equation (Bishop, 1995, pp. 207-208). One
  850. solution to this difficulty is to construct a network that learns a mixture
  851. approximation to the conditional distribution of X given Y (Bishop, 1995,
  852. pp. 212-221). However, the mixture method will not work well in general for
  853. an X vector that is more than one-dimensional, such as Y = X_1^2 +
  854. X_2^2, since the number of mixture components required may increase
  855. exponentially with the dimensionality of X. And you are still left with the
  856. problem of extracting a single output vector from the mixture distribution,
  857. which is nontrivial if the mixture components overlap considerably. Another
  858. solution is to use a highly robust error function, such as a redescending
  859. M-estimator, that learns a single mode of the conditional distribution
  860. instead of learning the mean (Huber, 1981; Rohwer and van der Rest 1996).
  861. Additional regularization terms or constraints may be required to persuade
  862. the network to choose appropriately among several modes, and there may be
  863. severe problems with local optima. 
  864.  
  865. Another approach is to train a network to learn the forward mapping f()
  866. and then numerically invert the function. Finding X such that Y = f(X)
  867. is simply a matter of solving a nonlinear system of equations, for which
  868. many algorithms can be found in the numerical analysis literature (Dennis
  869. and Schnabel 1983). One way to solve nonlinear equations is turn the problem
  870. into an optimization problem by minimizing sum(Y_i-f(X_i))^2. This
  871. method fits in nicely with the usual gradient-descent methods for training
  872. NNs (Kindermann and Linden 1990). Since the nonlinear equations will
  873. generally have multiple solutions, there may be severe problems with local
  874. optima, especially if some solutions are considered more desirable than
  875. others. You can deal with multiple solutions by inventing some objective
  876. function that measures the goodness of different solutions, and optimizing
  877. this objective function under the nonlinear constraint Y = f(X) using
  878. any of numerous algorithms for nonlinear programming (NLP; see Bertsekas,
  879. 1995, and other references under "What are conjugate gradients,
  880. Levenberg-Marquardt, etc.?") The power and flexibility of the nonlinear
  881. programming approach are offset by possibly high computational demands. 
  882.  
  883. If the forward mapping f() is obtained by training a network, there will
  884. generally be some error in the network's outputs. The magnitude of this
  885. error can be difficult to estimate. The process of inverting a network can
  886. propagate this error, so the results should be checked carefully for
  887. validity and numerical stability. Some training methods can produce not just
  888. a point output but also a prediction interval (Bishop, 1995; White, 1992).
  889. You can take advantage of prediction intervals when inverting a network by
  890. using NLP methods. For example, you could try to find an X that minimizes
  891. the width of the prediction interval under the constraint that the equation 
  892. Y = f(X) is satisfied. Or instead of requiring Y = f(X) be satisfied
  893. exactly, you could try to find an X such that the prediction interval is
  894. contained within some specified interval while minimizing some cost
  895. function. 
  896.  
  897. For more mathematics concerning the inverse-function problem, as well as
  898. some interesting methods involving self-organizing maps, see DeMers and
  899. Kreutz-Delgado (1996, 1997). For NNs that are relatively easy to invert, see
  900. the Adaptive Logic Networks described in the software sections of the FAQ. 
  901.  
  902. References: 
  903.  
  904.    Bertsekas, D. P. (1995), Nonlinear Programming, Belmont, MA: Athena
  905.    Scientific. 
  906.  
  907.    Bishop, C.M. (1995), Neural Networks for Pattern Recognition, Oxford:
  908.    Oxford University Press. 
  909.  
  910.    DeMers, D., and Kreutz-Delgado, K. (1996), "Canonical Parameterization of
  911.    Excess motor degrees of freedom with self organizing maps", IEEE Trans
  912.    Neural Networks, 7, 43-55. 
  913.  
  914.    DeMers, D., and Kreutz-Delgado, K. (1997), "Inverse kinematics of
  915.    dextrous manipulators," in Omidvar, O., and van der Smagt, P., (eds.) 
  916.    Neural Systems for Robotics, San Diego: Academic Press, pp. 75-116. 
  917.  
  918.    Dennis, J.E. and Schnabel, R.B. (1983) Numerical Methods for
  919.    Unconstrained Optimization and Nonlinear Equations, Prentice-Hall 
  920.  
  921.    Huber, P.J. (1981), Robust Statistics, NY: Wiley. 
  922.  
  923.    Kindermann, J., and Linden, A. (1990), "Inversion of Neural Networks by
  924.    Gradient Descent," Parallel Computing, 14, 277-286,
  925.    ftp://icsi.Berkeley.EDU/pub/ai/linden/KindermannLinden.IEEE92.ps.Z 
  926.  
  927.    Rohwer, R., and van der Rest, J.C. (1996), "Minimum description length,
  928.    regularization, and multimodal data," Neural Computation, 8, 595-609. 
  929.  
  930.    White, H. (1992), "Nonparametric Estimation of Conditional Quantiles
  931.    Using Neural Networks," in Page, C. and Le Page, R. (eds.), Proceedings
  932.    of the 23rd Sympsium on the Interface: Computing Science and Statistics,
  933.    Alexandria, VA: American Statistical Association, pp. 190-199. 
  934.  
  935. ------------------------------------------------------------------------
  936.  
  937. Subject: How to get invariant recognition of images under
  938. =========================================================
  939. translation, rotation, etc.?
  940. ============================
  941.  
  942. See: 
  943.  
  944.    Bishop, C.M. (1995), Neural Networks for Pattern Recognition, Oxford:
  945.    Oxford University Press, section 8.7. 
  946.  
  947.    Masters, T. (1994), Signal and Image Processing with Neural Networks: A
  948.    C++ Sourcebook, NY: Wiley. 
  949.  
  950.    Soucek, B., and The IRIS Group (1992), Fast Learning and Invariant Object
  951.    Recognition, NY: Wiley. 
  952.  
  953.    Squire, D. (1997), Model-Based Neural Networks for Invariant Pattern
  954.    Recognition, http://cuiwww.unige.ch/~squire/publications.html 
  955.  
  956.    Laurenz Wiskott, bibliography on "Unsupervised Learning of Invariances in
  957.    Neural Systems" 
  958.    http://www.cnl.salk.edu/~wiskott/Bibliographies/LearningInvariances.html 
  959.  
  960. ------------------------------------------------------------------------
  961.  
  962. Subject: How to recognize handwritten characters?
  963. =================================================
  964.  
  965. URLS:
  966.  
  967.  o Don Tveter's The Pattern Recognition Basis of AI at 
  968.    http://www.dontveter.com/basisofai/char.html 
  969.  o Andras Kornai's homepage at http://www.cs.rice.edu/~andras/ 
  970.  o Yann LeCun's homepage at http://www.research.att.com/~yann/
  971.    Data sets of handwritten digits can be found at 
  972.    http://www.research.att.com/~yann/exdb/mnist/ 
  973.  
  974. Other references: 
  975.  
  976.    Hastie, T., and Simard, P.Y. (1998), "Metrics and models for handwritten
  977.    character recognition," Statistical Science, 13, 54-65. 
  978.  
  979.    Jackel, L.D. et al., (1994) "Comparison of Classifier Methods: A Case
  980.    Study in Handwritten Digit Recognition", 1994 International Conference on
  981.    Pattern Recognition, Jerusalem 
  982.  
  983.    LeCun, Y., Jackel, L.D., Bottou, L., Brunot, A., Cortes, C., Denker,
  984.    J.S., Drucker, H., Guyon, I., Muller, U.A., Sackinger, E., Simard, P.,
  985.    and Vapnik, V. (1995), "Comparison of learning algorithms for handwritten
  986.    digit recognition," in F. Fogelman and P. Gallinari, eds., International
  987.    Conference on Artificial Neural Networks, pages 53-60, Paris. 
  988.  
  989.    Orr, G.B., and Mueller, K.-R., eds. (1998), Neural Networks: Tricks of
  990.    the Trade, Berlin: Springer, ISBN 3-540-65311-2. 
  991.  
  992. ------------------------------------------------------------------------
  993.  
  994. Subject: What about pulsed or spiking NNs?
  995. ==========================================
  996.  
  997. The standard reference is: 
  998.  
  999.    Maass, W., and Bishop, C.M., eds. (1999) Pulsed Neural Networks,
  1000.    Cambridge, MA: The MIT Press, ISBN: 0262133504. 
  1001.  
  1002. For more information on this book, see the section on "Pulsed/Spiking
  1003. networks" under "Other notable books" in part 4 of the FAQ. Also see
  1004. Professor Maass's web page at http://www.igi.tugraz.at/maass/.
  1005.  
  1006. Some other interesting URLs include: 
  1007.  
  1008.  o Laboratory of Computational Neuroscience (LCN) at the Swiss Federal
  1009.    Institute of Technology Lausanne, 
  1010.    http://diwww.epfl.ch/mantra/mantra_bioneuro.html 
  1011.  
  1012.  o The notoriously hyped Berger-Liaw Neural Network Speaker-Independent
  1013.    Speech Recognition System, 
  1014.    http://www.usc.edu/ext-relations/news_service/releases/stories/36013.html
  1015.  
  1016. ------------------------------------------------------------------------
  1017.  
  1018. Subject: What about Genetic Algorithms?
  1019. =======================================
  1020.  
  1021. There are a number of definitions of GA (Genetic Algorithm). A possible one
  1022. is
  1023.  
  1024.   A GA is an optimization program
  1025.   that starts with
  1026.   a population of encoded procedures,       (Creation of Life :-> )
  1027.   mutates them stochastically,              (Get cancer or so :-> )
  1028.   and uses a selection process              (Darwinism)
  1029.   to prefer the mutants with high fitness
  1030.   and perhaps a recombination process       (Make babies :-> )
  1031.   to combine properties of (preferably) the succesful mutants.
  1032.  
  1033. Genetic algorithms are just a special case of the more general idea of
  1034. "evolutionary computation". There is a newsgroup that is dedicated to the
  1035. field of evolutionary computation called comp.ai.genetic. It has a detailed
  1036. FAQ posting which, for instance, explains the terms "Genetic Algorithm",
  1037. "Evolutionary Programming", "Evolution Strategy", "Classifier System", and
  1038. "Genetic Programming". That FAQ also contains lots of pointers to relevant
  1039. literature, software, other sources of information, et cetera et cetera.
  1040. Please see the comp.ai.genetic FAQ for further information. 
  1041.  
  1042. For an entertaining introduction to evolutionary training of neural nets,
  1043. see: 
  1044.  
  1045.    David Fogel (2001), Blondie24: Playing at the Edge of AI, Morgan Kaufmann
  1046.    Publishers, ISBN: 1558607838 
  1047.  
  1048. There are other books and papers by Fogel and his colleagues listed under 
  1049. "Checkers/Draughts" in the "Games, sports, gambling" section above. 
  1050.  
  1051. For an extensive review, see: 
  1052.  
  1053.    Yao, X. (1999), "Evolving Artificial Neural Networks," Proceedings of the
  1054.    IEEE, 87, 1423-1447, http://www.cs.bham.ac.uk/~xin/journal_papers.html 
  1055.  
  1056. Here are some other on-line papers about evolutionary training of NNs: 
  1057.  
  1058.  o Backprop+GA: http://geneura.ugr.es/~pedro/G-Prop.htm 
  1059.  
  1060.  o LVQ+GA: http://geneura.ugr.es/g-lvq/g-lvq.html 
  1061.  
  1062.  o Very long chromosomes: 
  1063.    ftp://archive.cis.ohio-state.edu/pub/neuroprose/korning.nnga.ps.Z 
  1064.  
  1065. More URLs on genetic algorithms and NNs: 
  1066.  
  1067.  o Omri Weisman and Ziv Pollack's web page on "Neural Network Using Genetic
  1068.    Algorithms" at http://www.cs.bgu.ac.il/~omri/NNUGA/ 
  1069.  
  1070.  o Christoph M. Friedrich's web page on Evolutionary algorithms and
  1071.    Artificial Neural Networks has a bibloigraphy and links to researchers at
  1072.    http://www.tussy.uni-wh.de/~chris/gann/gann.html 
  1073.  
  1074.  o Andrew Gray's Hybrid Systems FAQ at the University of Otago at 
  1075.    http://divcom.otago.ac.nz:800/COM/INFOSCI/SMRL/people/andrew/publications/faq/hybrid/hybrid.htm
  1076.  
  1077.  o Differential Evolution: http://www.icsi.berkeley.edu/~storn/code.html 
  1078.  
  1079. For general information on GAs, try the links at 
  1080. http://www.shef.ac.uk/~gaipp/galinks.html and http://www.cs.unibo.it/~gaioni
  1081.  
  1082. ------------------------------------------------------------------------
  1083.  
  1084. Subject: What about Fuzzy Logic?
  1085. ================================
  1086.  
  1087. Fuzzy logic is an area of research based on the work of L.A. Zadeh. It is a
  1088. departure from classical two-valued sets and logic, that uses "soft"
  1089. linguistic (e.g. large, hot, tall) system variables and a continuous range
  1090. of truth values in the interval [0,1], rather than strict binary (True or
  1091. False) decisions and assignments.
  1092.  
  1093. Fuzzy logic is used where a system is difficult to model exactly (but an
  1094. inexact model is available), is controlled by a human operator or expert, or
  1095. where ambiguity or vagueness is common. A typical fuzzy system consists of a
  1096. rule base, membership functions, and an inference procedure.
  1097.  
  1098. Most fuzzy logic discussion takes place in the newsgroup comp.ai.fuzzy
  1099. (where there is a fuzzy logic FAQ) but there is also some work (and
  1100. discussion) about combining fuzzy logic with neural network approaches in
  1101. comp.ai.neural-nets.
  1102.  
  1103. Early work combining neural nets and fuzzy methods used competitive networks
  1104. to generate rules for fuzzy systems (Kosko 1992). This approach is sort of a
  1105. crude version of bidirectional counterpropagation (Hecht-Nielsen 1990) and
  1106. suffers from the same deficiencies. More recent work (Brown and Harris 1994;
  1107. Kosko 1997) has been based on the realization that a fuzzy system is a
  1108. nonlinear mapping from an input space to an output space that can be
  1109. parameterized in various ways and therefore can be adapted to data using the
  1110. usual neural training methods (see "What is backprop?") or conventional
  1111. numerical optimization algorithms (see "What are conjugate gradients,
  1112. Levenberg-Marquardt, etc.?"). 
  1113.  
  1114. A neural net can incorporate fuzziness in various ways: 
  1115.  
  1116.  o The inputs can be fuzzy. Any garden-variety backprop net is fuzzy in this
  1117.    sense, and it seems rather silly to call a net "fuzzy" solely on this
  1118.    basis, although Fuzzy ART (Carpenter and Grossberg 1996) has no other
  1119.    fuzzy characteristics. 
  1120.  o The outputs can be fuzzy. Again, any garden-variety backprop net is fuzzy
  1121.    in this sense. But competitive learning nets ordinarily produce crisp
  1122.    outputs, so for competitive learning methods, having fuzzy output is a
  1123.    meaningful distinction. For example, fuzzy c-means clustering (Bezdek
  1124.    1981) is meaningfully different from (crisp) k-means. Fuzzy ART does not
  1125.    have fuzzy outputs. 
  1126.  o The net can be interpretable as an adaptive fuzzy system. For example,
  1127.    Gaussian RBF nets and B-spline regression models (Dierckx 1995, van
  1128.    Rijckevorsal 1988) are fuzzy systems with adaptive weights (Brown and
  1129.    Harris 1994) and can legitimately be called neurofuzzy systems. 
  1130.  o The net can be a conventional NN architecture that operates on fuzzy
  1131.    numbers instead of real numbers (Lippe, Feuring and Mischke 1995). 
  1132.  o Fuzzy constraints can provide external knowledge (Lampinen and Selonen
  1133.    1996). 
  1134.  
  1135. More information on neurofuzzy systems is available online: 
  1136.  
  1137.  o The Fuzzy Logic and Neurofuzzy Resources page of the Image, Speech and
  1138.    Intelligent Systems (ISIS) research group at the University of
  1139.    Southampton, Southampton, Hampshire, UK: 
  1140.    http://www-isis.ecs.soton.ac.uk/research/nfinfo/fuzzy.html. 
  1141.  o The Neuro-Fuzzy Systems Research Group's web page at Tampere University
  1142.    of Technology, Tampere, Finland: http://www.cs.tut.fi/~tpo/group.html and
  1143.    http://dmiwww.cs.tut.fi/nfs/Welcome_uk.html 
  1144.  o Marcello Chiaberge's Neuro-Fuzzy page at 
  1145.    http://polimage.polito.it/~marcello. 
  1146.  o The homepage of the research group on Neural Networks and Fuzzy Systems
  1147.    at the Institute of Knowledge Processing and Language Engineering,
  1148.    Faculty of Computer Science, University of Magdeburg, Germany, at 
  1149.    http://www.neuro-fuzzy.de/ 
  1150.  o Jyh-Shing Roger Jang's home page at http://www.cs.nthu.edu.tw/~jang/ with
  1151.    information on ANFIS (Adaptive Neuro-Fuzzy Inference Systems), articles
  1152.    on neuro-fuzzy systems, and more links. 
  1153.  o Andrew Gray's Hybrid Systems FAQ at the University of Otago at 
  1154.    http://divcom.otago.ac.nz:800/COM/INFOSCI/SMRL/people/andrew/publications/faq/hybrid/hybrid.htm
  1155.  
  1156. References: 
  1157.  
  1158.    Bezdek, J.C. (1981), Pattern Recognition with Fuzzy Objective Function
  1159.    Algorithms, New York: Plenum Press. 
  1160.  
  1161.    Bezdek, J.C. & Pal, S.K., eds. (1992), Fuzzy Models for Pattern
  1162.    Recognition, New York: IEEE Press. 
  1163.  
  1164.    Brown, M., and Harris, C. (1994), Neurofuzzy Adaptive Modelling and
  1165.    Control, NY: Prentice Hall. 
  1166.  
  1167.    Carpenter, G.A. and Grossberg, S. (1996), "Learning, Categorization, Rule
  1168.    Formation, and Prediction by Fuzzy Neural Networks," in Chen, C.H.
  1169.    (1996), pp. 1.3-1.45. 
  1170.  
  1171.    Chen, C.H., ed. (1996) Fuzzy Logic and Neural Network Handbook, NY:
  1172.    McGraw-Hill, ISBN 0-07-011189-8. 
  1173.  
  1174.    Dierckx, P. (1995), Curve and Surface Fitting with Splines, Oxford:
  1175.    Clarendon Press. 
  1176.  
  1177.    Hecht-Nielsen, R. (1990), Neurocomputing, Reading, MA: Addison-Wesley. 
  1178.  
  1179.    Klir, G.J. and Folger, T.A.(1988), Fuzzy Sets, Uncertainty, and
  1180.    Information, Englewood Cliffs, N.J.: Prentice-Hall. 
  1181.  
  1182.    Kosko, B.(1992), Neural Networks and Fuzzy Systems, Englewood Cliffs,
  1183.    N.J.: Prentice-Hall. 
  1184.  
  1185.    Kosko, B. (1997), Fuzzy Engineering, NY: Prentice Hall. 
  1186.  
  1187.    Lampinen, J and Selonen, A. (1996), "Using Background Knowledge for
  1188.    Regularization of Multilayer Perceptron Learning", Submitted to
  1189.    International Conference on Artificial Neural Networks, ICANN'96, Bochum,
  1190.    Germany. 
  1191.  
  1192.    Lippe, W.-M., Feuring, Th. and Mischke, L. (1995), "Supervised learning
  1193.    in fuzzy neural networks," Institutsbericht Angewandte Mathematik und
  1194.    Informatik, WWU Muenster, I-12, 
  1195.    http://wwwmath.uni-muenster.de/~feuring/WWW_literatur/bericht12_95.ps.gz 
  1196.  
  1197.    Nauck, D., Klawonn, F., and Kruse, R. (1997), Foundations of
  1198.    Neuro-Fuzzy Systems, Chichester: Wiley, ISBN 0-471-97151-0. 
  1199.  
  1200.    van Rijckevorsal, J.L.A. (1988), "Fuzzy coding and B-splines," in van
  1201.    Rijckevorsal, J.L.A., and de Leeuw, J., eds., Component and
  1202.    Correspondence Analysis, Chichester: John Wiley & Sons, pp. 33-54. 
  1203.  
  1204. ------------------------------------------------------------------------
  1205.  
  1206. Subject: Unanswered FAQs
  1207. ========================
  1208.  
  1209.  o How many training cases do I need? 
  1210.  o How should I split the data into training and validation sets? 
  1211.  o What error functions can be used? 
  1212.  o How can I select important input variables? 
  1213.  o Should NNs be used in safety-critical applications? 
  1214.  
  1215. ------------------------------------------------------------------------
  1216.  
  1217. Subject: Other NN links?
  1218. ========================
  1219.  
  1220.  o Search engines
  1221.  o ++++++++++++++
  1222.  
  1223.     o Yahoo: 
  1224.       http://www.yahoo.com/Science/Engineering/Electrical_Engineering/Neural_Networks/
  1225.     o Neuroscience Web Search: http://www.acsiom.org/nsr/neuro.html 
  1226.  
  1227.  o Archives of NN articles and software
  1228.  o ++++++++++++++++++++++++++++++++++++
  1229.  
  1230.     o Neuroprose ftp archive site
  1231.     o ---------------------------
  1232.  
  1233.       ftp://archive.cis.ohio-state.edu/pub/neuroprose This directory
  1234.       contains technical reports as a public service to the connectionist
  1235.       and neural network scientific community. 
  1236.  
  1237.     o Finnish University Network archive site
  1238.     o ---------------------------------------
  1239.  
  1240.       A large collection of neural network papers and software at 
  1241.       ftp://ftp.funet.fi/pub/sci/neural/ Contains all the public domain
  1242.       software and papers that they have been able to find. All of these
  1243.       files have been transferred from FTP sites in U.S. and are mirrored
  1244.       about every 3 months at fastest. Contact: neural-adm@ftp.funet.fi 
  1245.  
  1246.     o SEL-HPC Article Archive
  1247.     o -----------------------
  1248.  
  1249.       http://liinwww.ira.uka.de/bibliography/Misc/SEL-HPC.html 
  1250.  
  1251.     o Machine Learning Papers
  1252.     o -----------------------
  1253.  
  1254.       http://gubbio.cs.berkeley.edu/mlpapers/ 
  1255.  
  1256.  o Plain-text Tables of Contents of NN journals
  1257.  o ++++++++++++++++++++++++++++++++++++++++++++
  1258.  
  1259.    Pattern Recognition Group, Department of Applied Physics,
  1260.    Faculty of Applied Sciences, Delft University of Technology,
  1261.    http://www.ph.tn.tudelft.nl/PRInfo/PRInfo/journals.html 
  1262.  
  1263.  o The Collection of Computer Science Bibliographies:
  1264.  o ++++++++++++++++++++++++++++++++++++++++++++++++++
  1265.    Bibliographies on Neural Networks
  1266.    +++++++++++++++++++++++++++++++++
  1267.  
  1268.    http://liinwww.ira.uka.de/bibliography/Neural/index.html 
  1269.  
  1270.  o BibTeX data bases of NN journals
  1271.  o ++++++++++++++++++++++++++++++++
  1272.  
  1273.    The Center for Computational Intelligence maintains BibTeX data bases of
  1274.    various NN journals, including IEEE Transactions on Neural Networks,
  1275.    Machine Learning, Neural Computation, and NIPS, at 
  1276.    http://www.ci.tuwien.ac.at/docs/ci/bibtex_collection.html or 
  1277.    ftp://ftp.ci.tuwien.ac.at/pub/texmf/bibtex/bib/. 
  1278.  
  1279.  o NN events server
  1280.  o ++++++++++++++++
  1281.  
  1282.    There is a WWW page for Announcements of Conferences, Workshops and Other
  1283.    Events on Neural Networks at IDIAP in Switzerland. WWW-Server: 
  1284.    http://www.idiap.ch/html/idiap-networks.html. 
  1285.  
  1286.  o Academic programs list
  1287.  o ++++++++++++++++++++++
  1288.  
  1289.    Rutvik Desai <rutvik@c3serve.c3.lanl.gov> has a compilation of acedemic
  1290.    programs offering interdeciplinary studies in computational neuroscience,
  1291.    AI, cognitive psychology etc. at 
  1292.    http://www.cs.indiana.edu/hyplan/rudesai/cogsci-prog.html 
  1293.  
  1294.    Links to neurosci, psychology, linguistics lists are also provided. 
  1295.  
  1296.  o Neurosciences Internet Resource Guide
  1297.  o +++++++++++++++++++++++++++++++++++++
  1298.  
  1299.    This document aims to be a guide to existing, free, Internet-accessible
  1300.    resources helpful to neuroscientists of all stripes. An ASCII text
  1301.    version (86K) is available in the Clearinghouse of Subject-Oriented
  1302.    Internet Resource Guides as follows:
  1303.  
  1304.    ftp://una.hh.lib.umich.edu/inetdirsstacks/neurosci:cormbonario, 
  1305.    gopher://una.hh.lib.umich.edu/00/inetdirsstacks/neurosci:cormbonario, 
  1306.    http://http2.sils.umich.edu/Public/nirg/nirg1.html. 
  1307.  
  1308.  o Other WWW sites
  1309.  o +++++++++++++++
  1310.  
  1311.    In World-Wide-Web (WWW, for example via the xmosaic program) you can read
  1312.    neural network information for instance by opening one of the following
  1313.    uniform resource locators (URLs): 
  1314.    http://www-xdiv.lanl.gov/XCM/neural/neural_announcements.html Los Alamos
  1315.    neural announcements and general information, 
  1316.    http://www.ph.kcl.ac.uk/neuronet/ (NEuroNet, King's College, London), 
  1317.    http://www.eeb.ele.tue.nl (Eindhoven, Netherlands), 
  1318.    http://www.emsl.pnl.gov:2080/docs/cie/neural/ (Pacific Northwest National
  1319.    Laboratory, Richland, Washington, USA), 
  1320.    http://www.cosy.sbg.ac.at/~rschwaig/rschwaig/projects.html (Salzburg,
  1321.    Austria), 
  1322.    http://http2.sils.umich.edu/Public/nirg/nirg1.html (Michigan, USA), 
  1323.    http://www.lpac.ac.uk/SEL-HPC/Articles/NeuralArchive.html (London), 
  1324.    http://rtm.science.unitn.it/ Reactive Memory Search (Tabu Search) page
  1325.    (Trento, Italy), 
  1326.    http://www.wi.leidenuniv.nl/art/ (ART WWW site, Leiden, Netherlands), 
  1327.    http://nucleus.hut.fi/nnrc/ Helsinki University of Technology. 
  1328.    http://www.pitt.edu/~mattf/NeuroRing.html links to neuroscience web pages
  1329.  
  1330.    http://www.arcade.uiowa.edu/hardin-www/md-neuro.htmlHardin Meta Directory
  1331.    web page for Neurology/Neurosciences.
  1332.    Many others are available too; WWW is changing all the time. 
  1333.  
  1334. ------------------------------------------------------------------------
  1335.  
  1336. That's all folks (End of the Neural Network FAQ).
  1337.  
  1338. Acknowledgements: Thanks to all the people who helped to get the stuff
  1339.                   above into the posting. I cannot name them all, because
  1340.                   I would make far too many errors then. :->
  1341.  
  1342.                   No?  Not good?  You want individual credit?
  1343.                   OK, OK. I'll try to name them all. But: no guarantee....
  1344.  
  1345.   THANKS FOR HELP TO:
  1346. (in alphabetical order of email adresses, I hope)
  1347.  
  1348.  o Steve Ward <71561.2370@CompuServe.COM> 
  1349.  o Allen Bonde <ab04@harvey.gte.com> 
  1350.  o Accel Infotech Spore Pte Ltd <accel@solomon.technet.sg> 
  1351.  o Ales Krajnc <akrajnc@fagg.uni-lj.si> 
  1352.  o Alexander Linden <al@jargon.gmd.de> 
  1353.  o Matthew David Aldous <aldous@mundil.cs.mu.OZ.AU> 
  1354.  o S.Taimi Ames <ames@reed.edu> 
  1355.  o Axel Mulder <amulder@move.kines.sfu.ca> 
  1356.  o anderson@atc.boeing.com 
  1357.  o Andy Gillanders <andy@grace.demon.co.uk> 
  1358.  o Davide Anguita <anguita@ICSI.Berkeley.EDU> 
  1359.  o Avraam Pouliakis <apou@leon.nrcps.ariadne-t.gr> 
  1360.  o Kim L. Blackwell <avrama@helix.nih.gov> 
  1361.  o Mohammad Bahrami <bahrami@cse.unsw.edu.au> 
  1362.  o Paul Bakker <bakker@cs.uq.oz.au> 
  1363.  o Stefan Bergdoll <bergdoll@zxd.basf-ag.de> 
  1364.  o Jamshed Bharucha <bharucha@casbs.Stanford.EDU> 
  1365.  o Carl M. Cook <biocomp@biocomp.seanet.com> 
  1366.  o Yijun Cai <caiy@mercury.cs.uregina.ca> 
  1367.  o L. Leon Campbell <campbell@brahms.udel.edu> 
  1368.  o Cindy Hitchcock <cindyh@vnet.ibm.com> 
  1369.  o Clare G. Gallagher <clare@mikuni2.mikuni.com> 
  1370.  o Craig Watson <craig@magi.ncsl.nist.gov> 
  1371.  o Yaron Danon <danony@goya.its.rpi.edu> 
  1372.  o David Ewing <dave@ndx.com> 
  1373.  o David DeMers <demers@cs.ucsd.edu> 
  1374.  o Denni Rognvaldsson <denni@thep.lu.se> 
  1375.  o Duane Highley <dhighley@ozarks.sgcl.lib.mo.us> 
  1376.  o Dick.Keene@Central.Sun.COM 
  1377.  o DJ Meyer <djm@partek.com> 
  1378.  o Donald Tveter <don@dontveter.com> 
  1379.  o Daniel Tauritz <dtauritz@wi.leidenuniv.nl> 
  1380.  o Wlodzislaw Duch <duch@phys.uni.torun.pl> 
  1381.  o E. Robert Tisdale <edwin@flamingo.cs.ucla.edu> 
  1382.  o Athanasios Episcopos <episcopo@fire.camp.clarkson.edu> 
  1383.  o Frank Schnorrenberg <fs0997@easttexas.tamu.edu> 
  1384.  o Gary Lawrence Murphy <garym@maya.isis.org> 
  1385.  o gaudiano@park.bu.edu 
  1386.  o Lee Giles <giles@research.nj.nec.com> 
  1387.  o Glen Clark <opto!glen@gatech.edu> 
  1388.  o Phil Goodman <goodman@unr.edu> 
  1389.  o guy@minster.york.ac.uk 
  1390.  o Horace A. Vallas, Jr. <hav@neosoft.com> 
  1391.  o Joerg Heitkoetter <heitkoet@lusty.informatik.uni-dortmund.de> 
  1392.  o Ralf Hohenstein <hohenst@math.uni-muenster.de> 
  1393.  o Ian Cresswell <icressw@leopold.win-uk.net> 
  1394.  o Gamze Erten <ictech@mcimail.com> 
  1395.  o Ed Rosenfeld <IER@aol.com> 
  1396.  o Franco Insana <INSANA@asri.edu> 
  1397.  o Janne Sinkkonen <janne@iki.fi> 
  1398.  o Javier Blasco-Alberto <jblasco@ideafix.cps.unizar.es> 
  1399.  o Jean-Denis Muller <jdmuller@vnet.ibm.com> 
  1400.  o Jeff Harpster <uu0979!jeff@uu9.psi.com> 
  1401.  o Jonathan Kamens <jik@MIT.Edu> 
  1402.  o J.J. Merelo <jmerelo@geneura.ugr.es> 
  1403.  o Dr. Jacek Zurada <jmzura02@starbase.spd.louisville.edu> 
  1404.  o Jon Gunnar Solheim <jon@kongle.idt.unit.no> 
  1405.  o Josef Nelissen <jonas@beor.informatik.rwth-aachen.de> 
  1406.  o Joey Rogers <jrogers@buster.eng.ua.edu> 
  1407.  o Subhash Kak <kak@gate.ee.lsu.edu> 
  1408.  o Ken Karnofsky <karnofsky@mathworks.com> 
  1409.  o Kjetil.Noervaag@idt.unit.no 
  1410.  o Luke Koops <koops@gaul.csd.uwo.ca> 
  1411.  o Kurt Hornik <Kurt.Hornik@tuwien.ac.at> 
  1412.  o Thomas Lindblad <lindblad@kth.se> 
  1413.  o Clark Lindsey <lindsey@particle.kth.se> 
  1414.  o Lloyd Lubet <llubet@rt66.com> 
  1415.  o William Mackeown <mackeown@compsci.bristol.ac.uk> 
  1416.  o Maria Dolores Soriano Lopez <maria@vaire.imib.rwth-aachen.de> 
  1417.  o Mark Plumbley <mark@dcs.kcl.ac.uk> 
  1418.  o Peter Marvit <marvit@cattell.psych.upenn.edu> 
  1419.  o masud@worldbank.org 
  1420.  o Miguel A. Carreira-Perpinan<mcarreir@moises.ls.fi.upm.es> 
  1421.  o Yoshiro Miyata <miyata@sccs.chukyo-u.ac.jp> 
  1422.  o Madhav Moganti <mmogati@cs.umr.edu> 
  1423.  o Jyrki Alakuijala <more@ee.oulu.fi> 
  1424.  o Jean-Denis Muller <muller@bruyeres.cea.fr> 
  1425.  o Michael Reiss <m.reiss@kcl.ac.uk> 
  1426.  o mrs@kithrup.com 
  1427.  o Maciek Sitnik <msitnik@plearn.edu.pl> 
  1428.  o R. Steven Rainwater <ncc@ncc.jvnc.net> 
  1429.  o Nigel Dodd <nd@neural.win-uk.net> 
  1430.  o Barry Dunmall <neural@nts.sonnet.co.uk> 
  1431.  o Paolo Ienne <Paolo.Ienne@di.epfl.ch> 
  1432.  o Paul Keller <pe_keller@ccmail.pnl.gov> 
  1433.  o Peter Hamer <P.G.Hamer@nortel.co.uk> 
  1434.  o Pierre v.d. Laar <pierre@mbfys.kun.nl> 
  1435.  o Michael Plonski <plonski@aero.org> 
  1436.  o Lutz Prechelt <prechelt@ira.uka.de> [creator of FAQ] 
  1437.  o Richard Andrew Miles Outerbridge <ramo@uvphys.phys.uvic.ca> 
  1438.  o Rand Dixon <rdixon@passport.ca> 
  1439.  o Robin L. Getz <rgetz@esd.nsc.com> 
  1440.  o Richard Cornelius <richc@rsf.atd.ucar.edu> 
  1441.  o Rob Cunningham <rkc@xn.ll.mit.edu> 
  1442.  o Robert.Kocjancic@IJS.si 
  1443.  o Randall C. O'Reilly <ro2m@crab.psy.cmu.edu> 
  1444.  o Rutvik Desai <rudesai@cs.indiana.edu> 
  1445.  o Robert W. Means <rwmeans@hnc.com> 
  1446.  o Stefan Vogt <s_vogt@cis.umassd.edu> 
  1447.  o Osamu Saito <saito@nttica.ntt.jp> 
  1448.  o Scott Fahlman <sef+@cs.cmu.edu> 
  1449.  o <seibert@ll.mit.edu> 
  1450.  o Sheryl Cormicle <sherylc@umich.edu> 
  1451.  o Ted Stockwell <ted@aps1.spa.umn.edu> 
  1452.  o Stephanie Warrick <S.Warrick@cs.ucl.ac.uk> 
  1453.  o Serge Waterschoot <swater@minf.vub.ac.be> 
  1454.  o Thomas G. Dietterich <tgd@research.cs.orst.edu> 
  1455.  o Thomas.Vogel@cl.cam.ac.uk 
  1456.  o Ulrich Wendl <uli@unido.informatik.uni-dortmund.de> 
  1457.  o M. Verleysen <verleysen@dice.ucl.ac.be> 
  1458.  o VestaServ@aol.com 
  1459.  o Sherif Hashem <vg197@neutrino.pnl.gov> 
  1460.  o Matthew P Wiener <weemba@sagi.wistar.upenn.edu> 
  1461.  o Wesley Elsberry <welsberr@centralneuralsystem.com> 
  1462.  o Dr. Steve G. Romaniuk <ZLXX69A@prodigy.com> 
  1463.  
  1464. Special thanks to Gregory E. Heath <heath@ll.mit.edu> and Will Dwinnell
  1465. <predictor@delphi.com> for years of stimulating and educational discussions
  1466. on comp.ai.neurtal-nets. 
  1467.  
  1468. The FAQ was created in June/July 1991 by Lutz Prechelt; he also maintained
  1469. the FAQ until November 1995. Warren Sarle maintains the FAQ since December
  1470. 1995. 
  1471.  
  1472.  
  1473. Bye
  1474.  
  1475.   Warren & Lutz
  1476.  
  1477. Previous part is part 6. 
  1478.  
  1479. Neural network FAQ / Warren S. Sarle, saswss@unx.sas.com
  1480.  
  1481. -- 
  1482.  
  1483. Warren S. Sarle       SAS Institute Inc.   The opinions expressed here
  1484. saswss@unx.sas.com    SAS Campus Drive     are mine and not necessarily
  1485. (919) 677-8000        Cary, NC 27513, USA  those of SAS Institute.
  1486.