home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1993 #1 / NN_1993_1.iso / spool / comp / ai / neuraln / 4741 < prev    next >
Encoding:
Internet Message Format  |  1993-01-07  |  1.6 KB

  1. Path: sparky!uunet!elroy.jpl.nasa.gov!sdd.hp.com!caen!malgudi.oar.net!uoft02.utoledo.edu!cscon143
  2. From: cscon143@uoft02.utoledo.edu
  3. Newsgroups: comp.ai.neural-nets
  4. Subject: Re: will Cascade Correlation work in stochastic mode?dir
  5. Message-ID: <1993Jan7.150320.893@uoft02.utoledo.edu>
  6. Date: 7 Jan 93 15:03:20 EST
  7. References: <1993Jan6.182726.29899@cs.brown.edu>
  8. Distribution: comp.ai.neural-nets
  9. Organization: University of Toledo, Computer Services
  10. Lines: 29
  11.  
  12. In article <1993Jan6.182726.29899@cs.brown.edu>, ra@cs.brown.edu (Ronny Ashar) writes:
  13. > Hi
  14. > I've been using standard backprop and on-line training, i.e., the algorithm can sample a single randomly generated example at a time. Backprop performs well
  15. > when given about 50,000 such examples( thats a small subset of the domain).
  16. > However, I would prefer a more robust algorithm. I was looking at Fahlman's 
  17. > Cascade Correlation. My impression is that Cascor needs epoch training only;
  18. > it could be modified to work in stochastic mode, but, in that case, it will 
  19. > end up creating huge nets with redundant units. Is that correct?
  20. > Have people been using Cascade Correlation in stochastic mode? I'll appreciate
  21. > getting comments/suggestions.
  22. > Ronny
  23. -- 
  24.  
  25.     In the proceedings of COGANN '92 held in Baltimore, there are
  26.     two articles on Genetic Cascade Correlation.  It's not exactly
  27.     purely stochastic but you might find it interesting.  It just
  28.     happens to be what I am working on for my thesis too.
  29.  
  30.                     - Erik Mayer 
  31. ___
  32.   Internet: cscon143@uoft02.utoledo.edu    
  33.   Bitnet: cscon143@uoft02.BITNET                 
  34.  
  35.