home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #20 / NN_1992_20.iso / spool / comp / ai / neuraln / 3415 < prev    next >
Encoding:
Text File  |  1992-09-08  |  2.7 KB  |  77 lines

  1. Newsgroups: comp.ai.neural-nets
  2. Path: sparky!uunet!haven.umd.edu!darwin.sura.net!wupost!gumby!destroyer!ubc-cs!unixg.ubc.ca!kakwa.ucs.ualberta.ca!alberta!arms
  3. From: arms@cs.UAlberta.CA (Bill Armstrong)
  4. Subject: Re: NN process emulator
  5. Message-ID: <arms.715880799@spedden>
  6. Sender: news@cs.UAlberta.CA (News Administrator)
  7. Nntp-Posting-Host: spedden.cs.ualberta.ca
  8. Organization: University of Alberta, Edmonton, Canada
  9. References: <1992Sep7.090318.8040@nuscc.nus.sg>
  10. Date: Mon, 7 Sep 1992 15:46:39 GMT
  11. Lines: 64
  12.  
  13. kimhock%Solomon.Technet.sg (Teo Kim Hock) writes:
  14.  
  15. >We have been working on using the feed-forward NN to emulate the
  16. >dynamics of chemical processes.  It works well for simple processes but
  17. >fail to learn the process with non-linear time-delay, for example
  18.  
  19. >  y(t) = u(t+10-int(y(t-1)/.1)*0.2 + y(t-1)*0.8
  20. >where 0<y(t)<1.0.
  21.  
  22. Are you missing a parenthesis ^ here? I assume so.
  23.  
  24. >This process has time-delay that is a function of the output.  We have
  25. >tried using feed-forward net to learn the dynamics of this process
  26. >without any sucess.  Can anyone give us some advise on this.  Thank you
  27. >in advance.
  28.  
  29. There shouldnt be any problem in learning this function, provided you train
  30. a feedforward net that has as inputs
  31.  
  32. y(t-1), u(t+1), ..., u(t+10)
  33.  
  34. assuming that the u-values can be predicted.  If you meant the prior
  35. u-values, then you would have to have
  36.  
  37. >  y(t) = u(t-10+int(y(t-1)/.1))*0.2 + y(t-1)*0.8
  38. >where 0<y(t)<1.0
  39.  
  40. and use 
  41.  
  42. y(t-1), u(t-1), ..., u(t-10).
  43.  
  44. I hope this helps, and apologize if I've not changed your problem
  45. correctly.
  46.  
  47. If the dimensionality of the input is too high for your chosen learning
  48. system, try ALNs.  If the ALNs do the learning OK, then I can tell you
  49. what additional steps to take to assure safety.
  50.  
  51. To train the ALN, just run your system and produce 11-tuples, where
  52. each one is of the form
  53.  
  54. y(t-1), u(t-1), ..., u(t-10), y(t).
  55.  
  56. Depending on what the (known) function u is like, you may have to
  57. start simulations at quite a few values of y(0) to get enough training
  58. data.  Embed these into an lf program with codings like 12:1 for u's
  59. and 20:3 for the y's, and, say 100 quantization levels each.  You
  60. might find that some of your inputs could be removed if u is simple
  61. enough.
  62.  
  63. You can get the software for ALNs from menaik.cs.ualberta.ca
  64. [129.128.4.241] in pub/atre27.exe for Windows 3.x and pub/atree2.tar.Z for
  65. Unix.  I suggest you look at the Windows version in any case, as it
  66. has a lot of documentation and examples, and the Unix version is
  67. unadorned (and hence very portable).
  68.  
  69. Good luck.
  70.  
  71. Bill
  72. --
  73. ***************************************************
  74. Prof. William W. Armstrong, Computing Science Dept.
  75. University of Alberta; Edmonton, Alberta, Canada T6G 2H1
  76. arms@cs.ualberta.ca Tel(403)492 2374 FAX 492 1071
  77.