home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #27 / NN_1992_27.iso / spool / comp / ai / neuraln / 4358 < prev    next >
Encoding:
Text File  |  1992-11-24  |  1.2 KB  |  36 lines

  1. Newsgroups: comp.ai.neural-nets
  2. Path: sparky!uunet!munnari.oz.au!sol.deakin.OZ.AU!fulcrum.oz.au!steve
  3. From: steve@fulcrum.oz.au (Steve Taylor)
  4. Subject: Re: How to train a lifeless network (of "silicon atoms")?
  5. Message-ID: <1992Nov23.232129.13840@fulcrum.oz.au>
  6. Organization: The Fulcrum Consulting Group
  7. References: <1992Nov21.002654.13198@news.columbia.edu>
  8. Date: Mon, 23 Nov 1992 23:21:29 GMT
  9. Lines: 25
  10.  
  11. rs69@cunixb.cc.columbia.edu (Rong Shen) writes:
  12.  
  13. >Your Highness:
  14. Hey, I like it.
  15.  
  16. >    Suppose you have a neural network and you want to train it to
  17. >perform a task; for the moment, let's say the task is to recognize
  18. [... deleted ...]
  19. >Therefore, it is extremely likely that one training session will erase
  20. >the efforts of previous sessions.
  21.  
  22. >    My question is, What engineering tricks shall we use to
  23. >overcome this apparent difficulty?
  24. One training session will undo previous sessions. The trick is to interleave
  25. your sets of training data so the net never has time to concentrate on
  26. solving just part of your problem.
  27.  
  28. It's definitely in the "feature, not bug" category too, as it means that a nn
  29. can adapt itself to a new problem when required.
  30.  
  31. >rs69@cunixb.cc.columbia.edu
  32.  
  33. Steve
  34. steve@fulcrum.oz.au
  35.  
  36.