home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #16 / NN_1992_16.iso / spool / comp / ai / neuraln / 2968 < prev    next >
Encoding:
Text File  |  1992-07-26  |  6.0 KB  |  125 lines

  1. Newsgroups: comp.ai.neural-nets
  2. Path: sparky!uunet!zaphod.mps.ohio-state.edu!caen!destroyer!ubc-cs!alberta!arms
  3. From: arms@cs.UAlberta.CA (Bill Armstrong)
  4. Subject: Re: Training Data to Aluminium Appl.
  5. Message-ID: <arms.712197989@spedden>
  6. Sender: news@cs.UAlberta.CA (News Administrator)
  7. Nntp-Posting-Host: spedden.cs.ualberta.ca
  8. Organization: University of Alberta, Edmonton, Canada
  9. References: <12958@chalmers.se>
  10. Date: Mon, 27 Jul 1992 00:46:29 GMT
  11. Lines: 112
  12.  
  13. d8linha@dtek.chalmers.se (Haakan Lindh) writes:
  14.  
  15.  
  16. >My friend and I are currently doing our thesis project for an Aluminium
  17. >Smelter Factory in Sweden. The task is to control the owen temperature 
  18. >better than they are doing at the moment. We've got complete access to
  19. >their process database and they've explained some basics about the process.
  20. >There is, for instance, a well-known connection between the amount of added
  21. >Aluminum Flouride, AlF3 (a chemical they add once every day), and the 
  22. >temperature in the owen some time period later. Then we have all the noice
  23. >(as usual).
  24. >Our only control parameter is the amount AlF3 added each day, so the task is
  25. >to predict how much to add to receive some predefined temperature the following
  26. >day.
  27. >We're running Stuttgarts Neural Network Simulator (SNNS) under UNIX on a 
  28. >SPARCstation.
  29.  
  30. >The net contains (right now) 10 inputs and then 4 binary coded output 
  31. >units (0-16). We have approx. 400 connections in the net.
  32.  
  33. Right there, you could have a problem.  Do you want the 4 bits to give
  34. you 16 levels of AlF3?  If that's the case, then you have a problem
  35. with the least significant bit, which means little by itself. Perhaps
  36. if you used just one continuous output expressing the amount of AlF3
  37. to be added, you could end up with a more gracefully changing
  38. function.  My personal feeling here is that looking at the
  39. monotonicity of the functions is important, e.g is it true that the
  40. more AlF3 you add, the hotter it gets?  Then you want to make sure
  41. your decision is monotonic in that way.  Are there other variables on
  42. which the temperature depends in a monotonic way?  (To make a BP net
  43. monotonic, you should have all weights positive, say.  If there are
  44. increasing and decreasing parts of the functions, then perhaps you
  45. should try something other than a BP net so you have control.)
  46.  
  47. >We are currently trying to predict the temperature for tomorrow using super-
  48. >vised learning. It is sufficient if the predicted temperature lies within some
  49. >specified boundaries, i.e no demand of absolute correct prediction.
  50.  
  51. >Our first question is about the process data:
  52.  
  53. > The process data contains a lot of data close to the temperature average and
  54. > less and less data the futher you get from the average (like a normal 
  55. > distributed curve). Should we remove some of the data near the average in 
  56. > order to get a more even `spread' in the training set or should we just train
  57. > the net with the whole set as it is?
  58.  
  59. This is a problem of training.  There is a separate question about the
  60. desirable function.  The way to approach this depends a lot on how
  61. many variables influence the decision.  You say you have 10 inputs.
  62. Is that all data from the latest day?  Suppose you decided to include
  63. more measurements from the preceding days.  Then you would have 20.
  64. The higher the dimension, the harder it is to define the function, and
  65. the more data you need.  I'll just leave you with the thought: define
  66. what you want first, and don't expect the network to come up with a
  67. miracle.  In a small space you could divide the space up into
  68. parallelepipedal regions and look at the samples in that region to
  69. decide on a strategy for that region.  Then use that as a training
  70. point in your set.  You could also just smooth the data so generated
  71. and forget NNs altogether.
  72.  
  73. >The 2nd and 3rd quiz is regarding the training data:
  74.  
  75. > According to a prof. in Information Theory, we should uncorrelate all data
  76. > by using the Gramm-Schmidt method. Is it common praxis to do that?
  77.  
  78. It sounds like a good idea.  Then you have a low dimensional space,
  79. each variable of which is a linear combination of the original 10
  80. variables.  You may take the three most important variables, and
  81. divide each one into 10 levels and look at the data in each of the
  82. 1000 buckets of your input space.  The samples give you a good idea
  83. now of your desired function.
  84.  
  85. Now you can express the decisions in terms of the original variables,
  86. and use that to check your NN results.  I say, go with the prof's idea
  87. no matter what other methods you are using.  It gives you a standard
  88. for comparison.
  89.  
  90. > The database contains over 25,000 records. Should we try to train the net with
  91. > as much data as possible or is a small subset sufficient?
  92.  
  93. Depends on your training algorithm.  If your data is good, then try to
  94. distill the best actions to take from all the data.  In that way, you
  95. don't lose any valuable information, and it keeps your training set
  96. small.
  97.  
  98. >4th:
  99.  
  100. > We've reached quite satisfactory results by only using temperature and
  101. > the amount of added AlF3 five days back as input parameters. We took process
  102. > data for some months back which gave us approx. 1000 training data.
  103. > The net reached a pretty satisfactory level after only 200 training cycles.
  104. > The temperature depends on other parameters as well, but their influence is
  105. > not as great as AlF3. Should we add them as well to get even better results
  106. > and, in that case, should we add as many as we can or is it better to add 
  107. > only a few to keep the net as small as possible?
  108.  
  109. This is either your call or a contractual requirement.  Why not
  110. take into account as much as you can to optimize the decisions?
  111. Do measurements cost something?  Would they be made anyway?
  112.  
  113. >We would really appreciate any response to the question above and especially
  114. >if someone knows about any similar project (ongoing or completed).
  115.  
  116. Good luck, hope you don't have to spend your whole summer slaving over
  117. a hot oven.
  118.  
  119. Bill
  120. --
  121. ***************************************************
  122. Prof. William W. Armstrong, Computing Science Dept.
  123. University of Alberta; Edmonton, Alberta, Canada T6G 2H1
  124. arms@cs.ualberta.ca Tel(403)492 2374 FAX 492 1071
  125.