home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1993 #1 / NN_1993_1.iso / spool / comp / ai / neuraln / 4699 < prev    next >
Encoding:
Internet Message Format  |  1993-01-05  |  1.3 KB

  1. Path: sparky!uunet!ogicse!das-news.harvard.edu!cantaloupe.srv.cs.cmu.edu!crabapple.srv.cs.cmu.edu!danz
  2. From: danz+@CENTRO.SOAR.CS.CMU.EDU (Dan Zhu)
  3. Newsgroups: comp.ai.neural-nets
  4. Subject: some basic questions
  5. Message-ID: <C0E58K.KwL.1@cs.cmu.edu>
  6. Date: 5 Jan 93 17:14:36 GMT
  7. Article-I.D.: cs.C0E58K.KwL.1
  8. Sender: news@cs.cmu.edu (Usenet News System)
  9. Organization: School of Computer Science, Carnegie Mellon
  10. Lines: 22
  11. Originator: danz@CENTRO.SOAR.CS.CMU.EDU
  12. Nntp-Posting-Host: centro.soar.cs.cmu.edu
  13.  
  14.  
  15.   I have some problems with the input and output representation. 
  16.  
  17.       - Is symmetric sigmoid function (-0.5, 0.5) or (-1, 1) always
  18.         better than the asymmetric one (0, 1)? Any reference? 
  19.       - Shall I do this kind of scaling with the input representation also? 
  20.       - What would be a good cut point to test the network from time to time
  21.         to avoid the overtraining? 
  22.       - I remember I read something like "three layer (with one hidden layer)
  23.         is sufficient for the generalization of the network...". Could anyone
  24.         give me any pointer to the exact reference for it?
  25.       - Also, is there any new reference about the clue for selecting 
  26.         the range of "hidden nodes", "learning rate", "momentum" and 
  27.         judgement about the "initial weight"?
  28.  
  29.       
  30.  
  31.       Thanks in advance!
  32.  
  33.  
  34.  
  35.     
  36.