home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #16 / NN_1992_16.iso / spool / comp / ai / neuraln / 2965 < prev    next >
Encoding:
Internet Message Format  |  1992-07-26  |  3.0 KB

  1. Path: sparky!uunet!mcsun!sunic!chalmers.se!dtek.chalmers.se!d8linha
  2. From: d8linha@dtek.chalmers.se (Haakan Lindh)
  3. Newsgroups: comp.ai.neural-nets
  4. Subject: Training Data to Aluminium Appl.
  5. Message-ID: <12958@chalmers.se>
  6. Date: 26 Jul 92 21:21:21 GMT
  7. Sender: news@chalmers.se
  8. Organization: Chalmers University of Technology
  9. Lines: 56
  10.  
  11. Hi,
  12. My friend and I are currently doing our thesis project for an Aluminium
  13. Smelter Factory in Sweden. The task is to control the owen temperature 
  14. better than they are doing at the moment. We've got complete access to
  15. their process database and they've explained some basics about the process.
  16. There is, for instance, a well-known connection between the amount of added
  17. Aluminum Flouride, AlF3 (a chemical they add once every day), and the 
  18. temperature in the owen some time period later. Then we have all the noice
  19. (as usual).
  20. Our only control parameter is the amount AlF3 added each day, so the task is
  21. to predict how much to add to receive some predefined temperature the following
  22. day.
  23. We're running Stuttgarts Neural Network Simulator (SNNS) under UNIX on a 
  24. SPARCstation.
  25.  
  26. The net contains (right now) 10 inputs and then 4 binary coded output 
  27. units (0-16). We have approx. 400 connections in the net.
  28. We are currently trying to predict the temperature for tomorrow using super-
  29. vised learning. It is sufficient if the predicted temperature lies within some
  30. specified boundaries, i.e no demand of absolute correct prediction.
  31.  
  32. Our first question is about the process data:
  33.  
  34.  The process data contains a lot of data close to the temperature average and
  35.  less and less data the futher you get from the average (like a normal 
  36.  distributed curve). Should we remove some of the data near the average in 
  37.  order to get a more even `spread' in the training set or should we just train
  38.  the net with the whole set as it is?
  39.  
  40. The 2nd and 3rd quiz is regarding the training data:
  41.  
  42.  According to a prof. in Information Theory, we should uncorrelate all data
  43.  by using the Gramm-Schmidt method. Is it common praxis to do that?
  44.  
  45.  The database contains over 25,000 records. Should we try to train the net with
  46.  as much data as possible or is a small subset sufficient?
  47.  
  48. 4th:
  49.  
  50.  We've reached quite satisfactory results by only using temperature and
  51.  the amount of added AlF3 five days back as input parameters. We took process
  52.  data for some months back which gave us approx. 1000 training data.
  53.  The net reached a pretty satisfactory level after only 200 training cycles.
  54.  The temperature depends on other parameters as well, but their influence is
  55.  not as great as AlF3. Should we add them as well to get even better results
  56.  and, in that case, should we add as many as we can or is it better to add 
  57.  only a few to keep the net as small as possible?
  58.  
  59. We would really appreciate any response to the question above and especially
  60. if someone knows about any similar project (ongoing or completed).
  61.  
  62.  
  63. --
  64. d8linha@dtek.chalmers.se
  65.                                   Chalmers Univerity of Technology, Sweden
  66.                                Department of Computer Science and Engineering
  67.