home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #26 / NN_1992_26.iso / spool / comp / ai / neuraln / 4172 < prev    next >
Encoding:
Text File  |  1992-11-04  |  1.1 KB  |  25 lines

  1. Newsgroups: comp.ai.neural-nets
  2. Path: sparky!uunet!usc!sol.ctr.columbia.edu!destroyer!gumby!yale!yale.edu!jvnc.net!nuscc!ntuix!ntuvax.ntu.ac.sg!cyxzhou
  3. From: cyxzhou@ntuvax.ntu.ac.sg
  4. Subject: Question: Forced learning
  5. Message-ID: <1992Nov5.154452.1@ntuvax.ntu.ac.sg>
  6. Lines: 12
  7. Sender: news@ntuix.ntu.ac.sg (USENET News System)
  8. Nntp-Posting-Host: v9001.ntu.ac.sg
  9. Reply-To: comp.ai.neural-nets
  10. Organization: Nanyang Technological University - Singapore
  11. Date: Thu, 5 Nov 1992 07:44:52 GMT
  12.  
  13. We have used a feed-forward backprop network to simulate ore grade
  14. distribution. The problem is very simple. Input: (x,y) coordinates, output:
  15. Z (grade). While the results were very good, there was a problem of scaling
  16. down of data values which did not have a high frequency of occurence. But 
  17. reality, very often these values at certain points (x,y) are know to be correct
  18. values. My question: is there anyway to force the NN to remember these values
  19. as being correct in the training process? I would welcome any comments or 
  20. suggestioins. You may send your reply to: cyxzhou@ntuvax.ntu.ac.sg.
  21.  
  22. Best regards.
  23.  
  24. Zhou Yingxin
  25.