home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #20 / NN_1992_20.iso / spool / comp / ai / neuraln / 3404 < prev    next >
Encoding:
Internet Message Format  |  1992-09-07  |  1.4 KB

  1. Path: sparky!uunet!mcsun!uknet!cam-eng!ajr
  2. From: ajr@eng.cam.ac.uk (Tony Robinson)
  3. Newsgroups: comp.ai.neural-nets
  4. Subject: Re: search for literature on recurrent networks
  5. Keywords: recurrent, networks
  6. Message-ID: <1992Sep5.100106.26838@eng.cam.ac.uk>
  7. Date: 5 Sep 92 10:01:06 GMT
  8. References: <1992Sep4.155607.4536@a.cs.okstate.edu>
  9. Sender: ajr@eng.cam.ac.uk (Tony Robinson)
  10. Organization: Cambridge University Engineering Department, UK
  11. Lines: 19
  12. Nntp-Posting-Host: dsl.eng.cam.ac.uk
  13.  
  14. In comp.ai.neural-nets siva@a.cs.okstate.edu (KAVUTURU SIVA RAMA) writes:
  15. >
  16. > I am searching for the literature on recurrent networks. If you 
  17. > have any information regarding recurrent networks please send me.
  18. >
  19.  
  20. A recent message to comp.ai.neural-nets gave details of how to access the
  21. anonymous ftp site svr-ftp.eng.cam.ac.uk.  In directory "reports" you will
  22. find seven reports on recurrent nets.  This includes my PhD thesis "Dynamic
  23. Error Propagation Networks" (how I wish I'd used the word "recurrent") and a
  24. recent turorial which has two pages on recurrent nets, giving about six
  25. different forms of supervised net and three unsupervised nets.
  26.  
  27. Much of what a standard back-prop net does can be done with standard
  28. statistical techniques, often better and faster (e.g. weighted nearest
  29. neighbours, Gaussian mixtures, etc).  But there seems to be nothing to match
  30. the processing power of a recurrent net classifier.
  31.  
  32. Tony [Robinson]
  33.