home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #20 / NN_1992_20.iso / spool / comp / ai / neuraln / 3496 < prev    next >
Encoding:
Internet Message Format  |  1992-09-15  |  1.5 KB

  1. Path: sparky!uunet!ogicse!usenet.coe.montana.edu!rpi!newsserver.pixel.kodak.com!kodak!neural!bryant
  2. From: bryant@neural.Kodak.COM (Steve Bryant)
  3. Newsgroups: comp.ai.neural-nets
  4. Subject: Adaptive data collection
  5. Message-ID: <1992Sep15.141550.5425@kodak.kodak.com>
  6. Date: 15 Sep 92 14:15:50 GMT
  7. Article-I.D.: kodak.1992Sep15.141550.5425
  8. Sender: news@kodak.kodak.com
  9. Organization: Eastman Kodak Co., Rochester, NY
  10. Lines: 8
  11.  
  12. Has anyone done work on adaptive data collection to reduce the number of redundant data samples. We have a situation were the data is fairly well grouped so that each sample taken is usually similar to data samples already taken. To collect enough samples to cover the sample space results in a gaussian distribution with most of the samples near the "average" of the data space with only a few data points covering the the far away points.
  13.  
  14. As a result, the network converges very quickly for new samples near to the average, but can take some time to learn the outliers. What I am planning on doing is to start with a small training set and train the network. This network will probably perform poorly. Collect only those new samples that are incorrect or do not pass some threshold criteria. Add these additional samples to my original set and retrain the network. Repeat this cycle until the network performs to the desired level. I perceive that th
  15.  
  16.  
  17.  
  18.  
  19.  
  20. is will create a data set that is evenly distributed in the data space with out clumping of the data. and as a result should train faster with fewer samples.
  21.