home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1993 #1 / NN_1993_1.iso / spool / comp / ai / neuraln / 4719 < prev    next >
Encoding:
Text File  |  1993-01-06  |  1.0 KB  |  28 lines

  1. Newsgroups: comp.ai.neural-nets
  2. Path: sparky!uunet!brunix!brunix!ra
  3. From: ra@cs.brown.edu (Ronny Ashar)
  4. Subject: will Cascade Correlation work in stochastic mode?
  5. Message-ID: <1993Jan6.182726.29899@cs.brown.edu>
  6. Sender: news@cs.brown.edu
  7. Organization: Brown University Department of Computer Science
  8. Distribution: comp.ai.neural-nets
  9. Date: Wed, 6 Jan 1993 18:27:26 GMT
  10. Lines: 16
  11.  
  12. Hi
  13.  
  14. I've been using standard backprop and on-line training, i.e., the algorithm can sample a single randomly generated example at a time. Backprop performs well
  15. when given about 50,000 such examples( thats a small subset of the domain).
  16.  
  17. However, I would prefer a more robust algorithm. I was looking at Fahlman's 
  18. Cascade Correlation. My impression is that Cascor needs epoch training only;
  19. it could be modified to work in stochastic mode, but, in that case, it will 
  20. end up creating huge nets with redundant units. Is that correct?
  21.  
  22. Have people been using Cascade Correlation in stochastic mode? I'll appreciate
  23. getting comments/suggestions.
  24.  
  25. Ronny
  26.  
  27.  
  28.