home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #19 / NN_1992_19.iso / spool / sci / math / stat / 1749 < prev    next >
Encoding:
Text File  |  1992-08-25  |  872 b   |  26 lines

  1. Newsgroups: sci.math.stat
  2. Path: sparky!uunet!stanford.edu!EE.Stanford.EDU!usenet
  3. From: art@playfair.Stanford.EDU (Art Owen)
  4. Subject: Neural Nets & Statistics
  5. Message-ID: <1992Aug25.174906.5193@EE.Stanford.EDU>
  6. Sender: usenet@EE.Stanford.EDU (Usenet)
  7. Organization: Stanford University
  8. Date: Tue, 25 Aug 92 17:49:06 GMT
  9. Lines: 15
  10.  
  11. One way for statisticians to think of neural nets
  12. is as "recursive generalized linear models".
  13. If you are familiar with glms, then consider a
  14. glm in which each predictor may in fact be the
  15. result of a glm on another set of predictors.
  16.  
  17. I wouldn't claim that the above covers all neural
  18. models, but it does cover "feedforward neural nets
  19. with a single hidden layer", which are among the 
  20. ones most often used on statistical problems.
  21.  
  22. To explain glm's to a connectionist, you can
  23. say they are feedforward nets with "no hidden layer".
  24.  
  25. Art Owen
  26.