home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #27 / NN_1992_27.iso / spool / comp / ai / neuraln / 4347 < prev    next >
Encoding:
Text File  |  1992-11-22  |  1.3 KB  |  33 lines

  1. Newsgroups: comp.ai.neural-nets
  2. Path: sparky!uunet!psinntp!news.columbia.edu!cunixb.cc.columbia.edu!rs69
  3. From: rs69@cunixb.cc.columbia.edu (Rong Shen)
  4. Subject: Re: How to train a lifeless network (of "silicon atoms")?
  5. Message-ID: <1992Nov22.215822.7238@news.columbia.edu>
  6. Sender: usenet@news.columbia.edu (The Network News)
  7. Nntp-Posting-Host: cunixb.cc.columbia.edu
  8. Reply-To: rs69@cunixb.cc.columbia.edu (Rong Shen)
  9. Organization: Columbia University
  10. References: <1992Nov21.002654.13198@news.columbia.edu> <1992Nov22.182325.24185@dxcern.cern.ch>
  11. Date: Sun, 22 Nov 1992 21:58:22 GMT
  12. Lines: 19
  13.  
  14. In article <1992Nov22.182325.24185@dxcern.cern.ch> block@dxlaa.cern.ch (Frank Block) writes:
  15.  
  16.             (junk deleted)
  17.  
  18. >What you normally do during training is to present (taking you example) the
  19. >words 'hello' and 'goodbye' alternatively. You should not train the net first
  20. >just on one and then, when it has learned to recognize it, on the other.
  21. >The training is a statistical process which in the end (let's hope) converges
  22. >to a good set of weights (a compromise which recognizes all patterns in an
  23. >optimal way).
  24.  
  25.     Thanks, Frank.
  26.  
  27.     If I feed the words alternately, how would I train the network
  28. to recognize 99,999 words? Would not the 99,999th word erase the 1st
  29. word?
  30.  
  31. --
  32. rs69@cunixb.cc.columbia.edu
  33.