home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #16 / NN_1992_16.iso / spool / comp / ai / neuraln / 2936 < prev    next >
Encoding:
Text File  |  1992-07-25  |  1.2 KB  |  34 lines

  1. Newsgroups: comp.ai.neural-nets
  2. Path: sparky!uunet!cs.utexas.edu!qt.cs.utexas.edu!yale.edu!cs.yale.edu!tsioutsias-dimitris
  3. From: tsioutsias-dimitris@CS.YALE.EDU (Dimitris Tsioutsias)
  4. Subject: Re: ALN vs BP
  5. Message-ID: <1992Jul24.234400.2369@cs.yale.edu>
  6. Sender: news@cs.yale.edu (Usenet News)
  7. Nntp-Posting-Host: topaz.systemsx.cs.yale.edu
  8. Organization: Yale University Computer Science Dept., New Haven, CT 06520-2158
  9. Date: Fri, 24 Jul 1992 23:44:00 GMT
  10. Lines: 22
  11.  
  12.  
  13. <<<<<<<<
  14. From: tedwards@src.umd.edu (Thomas Grant Edwards)
  15. Message-ID: <1992Jul24.194122.27019@src.umd.edu>
  16.  
  17. In article <1992Jul24.053623.22636@cs.yale.edu> tsioutsias-dimitris@CS.YALE.EDU (Dimitris Tsioutsias) writes:
  18. >It seems that after the backprop fans, we have now the ALN ones. Why
  19. >each group (or any other that shows strong support) is trying to pass
  20. >its nets as the dominant ones?
  21.  
  22. Yeah, but there are alot of people who want to throw nets at real problems
  23. today, and it would be a little silly for anyone to expect gradient 
  24. descent MLP nets at any real problem and expect results.
  25. >>>>>>>>>>
  26.  
  27.  
  28.     It depends on the 'real problem'; such a generalization is
  29.     a bit too inappropriate. (Although, PURE gradient descent is
  30.     definetely not the best thing to do in most situations.)
  31.  
  32. ->dimitris
  33.  
  34.