home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #16 / NN_1992_16.iso / spool / comp / ai / neuraln / 2883 < prev    next >
Encoding:
Text File  |  1992-07-22  |  1.6 KB  |  48 lines

  1. Newsgroups: comp.ai.neural-nets
  2. Path: sparky!uunet!gatech!hubcap!luna!bdbryan
  3. From: bdbryan@eng.clemson.edu (Ben Bryant)
  4. Subject: Re: Neural Net for Matlab
  5. Message-ID: <1992Jul23.014930.19522@hubcap.clemson.edu>
  6. Sender: news@hubcap.clemson.edu (news)
  7. Reply-To: bdbryan@eng.clemson.edu
  8. Organization: College of Engineering, Clemson Univ.
  9. References: <35984@sdcc12.ucsd.edu>
  10. Date: Thu, 23 Jul 1992 01:49:30 GMT
  11. Lines: 35
  12.  
  13. In article 35984@sdcc12.ucsd.edu, demers@cs.ucsd.edu (David DeMers) writes:
  14. >In article <1992Jul22.134759.25636@uceng.UC.EDU> chan@uceng.UC.EDU (Alistair Keating Chan) writes:
  15. >
  16. >>Has anyone seen or written a standard backpropgation algorithm
  17. >>for Matlab that they would like to and be able to share?
  18. >
  19. >No, but MathWorks sells a Neural Networks Toolbox, just out.  I don't 
  20. >know the price.  I saw it demonstrated a couple of months 
  21. >ago and it seems pretty spiffy.  Sorry, I don't have a
  22. >better or more detailed review than that :-)
  23. >
  24. >However, standard bp is pretty easy to code up, in my opinion.
  25. >Forward activation is just matrix multiply, squash, matrix multiply,
  26. >squash...
  27. >and standard delta rule learning is 
  28. >compute delta, update weights, back prop (matrix mult),
  29. >compute delta, update weights, back prop...
  30. >
  31. >Dave
  32. >
  33. >-- 
  34. >Dave DeMers             ddemers@UCSD   demers@cs.ucsd.edu
  35. >Computer Science & Engineering    C-014        demers%cs@ucsd.bitnet
  36. >UC San Diego                    ...!ucsd!cs!demers
  37. >La Jolla, CA 92093-0114    (619) 534-0688, or -8187, FAX: (619) 534-7029
  38.  
  39. Close.
  40.  
  41. compute delta, back prop (if more than one hidden layer),
  42. compute delta, back prop (through all layers)...
  43. then update weights
  44.  
  45. -B.
  46.  
  47.  
  48.