home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #26 / NN_1992_26.iso / spool / comp / ai / neuraln / 4226 < prev    next >
Encoding:
Text File  |  1992-11-11  |  9.6 KB  |  262 lines

  1. Newsgroups: comp.ai.neural-nets
  2. Path: sparky!uunet!cs.utexas.edu!qt.cs.utexas.edu!yale.edu!ira.uka.de!rz.uni-karlsruhe.de!stepsun.uni-kl.de!sun.rhrk.uni-kl.de!starke
  3. From: starke@rhrk.uni-kl.de (Gerolf J Starke)
  4. Subject: Summary: NN and prediction
  5. Message-ID: <1992Nov11.121251.29289@rhrk.uni-kl.de>
  6. Organization: University of Kaiserslautern, Germany
  7. Date: Wed, 11 Nov 1992 12:12:51 GMT
  8. Lines: 252
  9.  
  10.  
  11. Thanks to all who answered my question about NN and prediction,
  12. specially to:
  13.  
  14. Sanjay Patil
  15. Shawn Day
  16. Raj Patil
  17. Louis Mittoni
  18. Miachael Kuehne
  19. Peeter M. Akerberg
  20. H. Debarre Thesard
  21. An Nguyen
  22.  
  23. Some asked for a summary. Here it is. I collected all the mails
  24. I received, without any commentaries.
  25. ----------
  26. Hello,
  27.  
  28. I have done some work using feed-forward dispersive networks with
  29. raw time-series data as input. Below are some recent references:
  30.  
  31. Day, Shawn P. and Davenport, Michael R., "Continuous-Time Temporal
  32. Back-Propagation with Adaptable Time Delays", To appear in: IEEE
  33. Transactions on Neural Networks.
  34.  
  35. Day, Shawn P. and Davenport, Michael R. and Camporese, Daniel S.,
  36. "Dispersive Networks for Nonlinear Adaptive Filtering", In Neural
  37. Networks for Signal Processing 2 - Proceedings of the 1992 IEEE
  38. Workshop, S. Y. Kung, F. Fallside, J. Aa. Sorenson, and C. A.
  39. Kamm, editors, pages 540-549, IEEE Press.
  40.  
  41. Davenport, Michael R., and Day, Shawn P., "Chaotic Signal Emulation
  42. using a Recurrent Time Delay Neural Network", In Neural Networks
  43. for Signal Processing 2 - Proceedings of the 1992 IEEE Workshop,
  44. S. Y. Kung, F. Fallside, J. Aa. Sorenson, and C. A. Kamm, editors,
  45. pages 454-463, IEEE Press.
  46.  
  47. Most of this work has to do with time-series prediction, but there
  48. are also some results on adaptive channel equalization, and chaotic
  49. signal emulation. Postscript versions of these papers are available
  50. for anonymous ftp from toaster.ee.ubc.ca. Go to the pub/shawnd
  51. directory, and look for the files ieee.ps.Z, copenhagen1.ps.Z,
  52. and copenhagen2.ps.Z.
  53.  
  54. Shawn Day           University of British Columbia 
  55. shawnd@ee.ubc.ca    Department of Electrical Engineering
  56. (604) 264-0024      2356 Main Mall, Vancouver, BC, Canada, V6T 1Z4
  57. ----------
  58. Well, I am not famous in the area but have done some emprocal studies for
  59. my masters thesis couple years back. i am including the references you 
  60. should look at before going further.
  61.  
  62. Box,  G. E. P. and G. M Jenkines, "time series: forecasting and 
  63. control", holden-day, San fransisco, CA 1976.
  64. Fishwick, P., :neural net models in simulation: a comparison with
  65. tradiional modelling approaches, working paper contact fishwick at 
  66. univ of florida, gainsville...
  67. Hoff J., a practicle guide to BOX-JENKINS forecasting, lifetime learning
  68. publications, Belmont CA. ISBN 0543027199, 1983
  69. Lapedes and Fraber, "onlinear signal processing using neural nets: prediction
  70. and system modelling, los alomos national lab tech report, LA-UR-87-2261
  71. july 1987
  72. Lapedes and Farber "genetic data base analysis with neural nets" IEEE 
  73. conference on neural info. processing systems-natural and
  74. synthetic 1987.
  75.  
  76. Makridakis S., "the accuracy of extrapolation methods: results of 
  77. forecasting competition, journal of forecasting vol 1 pp 111-153, 1982
  78.  
  79. Pack D.J, and Dowing D., "why did box-junkins win again" proceddings
  80. third intl. symposium on forecasting, philadilphia, 1983
  81.  
  82. Sharda and Patil "Neural nets as forecasting experts: An emprical test"
  83. IJCNN-WASH-DC, jan 1990, vol-II, pp491-494
  84.  
  85. Sutton R., S, "learning to predict by methods of temporal differences"
  86. machine learning vol 3., 99 9-44,1988
  87.  
  88. Tang Z., Time series forecasting using neural nets, Intl workshop on neural nets feb 1990, Auburn AL.
  89.  
  90. Werbos P, "beyond regression: new tools for prediction and analysis in 
  91. behavirol sciences, ph.d thesis, harvard univ.
  92.  
  93.  
  94. These are the references i used. sorry for sloppy typing i am in the middle
  95. of some thing very urgent...let me know if you do something interesting...
  96.  
  97.  
  98. best reggards
  99.  
  100. raj patil
  101. ----------
  102. I have had luck in this area using a very simple two layered network.
  103.  
  104. Two methods I've tried is: for a chaotic signal with time constant $\tau$
  105. give the network as input either:
  106.     o x(t),x(t+1),...,x(t+n)   where n is say 10-15 or longer.
  107.     o x(t),x(t+tau),x(t+2.tau)...  for the usual tau time delay.
  108.  
  109. I had more sucess with the first, I guess you can use any embedded set of
  110. vector representation so long as you give the net enough information.
  111.  
  112. Please let me know of any other replies you recieve, maybe we can compare
  113. performance or exchange network geometries & references.  I have a couple.
  114.  
  115. Louis
  116. _____________________________________________________________________________
  117. Louis Mittoni                    <Standard Disclaimer>
  118. mittoni@dmpe.csiro.au
  119. GK Williams Co-operative Research Centre
  120. University of Melbourne - CSIRO Division of Mineral and Process Engineering
  121. Telephone: + 61 3 541 1289    Fax: + 61 3 562 8919
  122. "Our country has plenty of good five-cent cigars, but the trouble is
  123. they charge fifteen cents for them."
  124. _____________________________________________________________________________
  125. ----------
  126. Hallo Gerolf!
  127. Ich beschaeftige mich zur Zeit mit der Prognose von Wirtschaftsdaten mit
  128. Hilfe von Neuronalen Netzen. Ich verwende dafuer ein Elman-net (nach
  129. Elman, J.L., Finding Structures in Time, Cognitive Science 1990, 14,
  130. S 179 - 211). Das ist ein backpropagation-net mit recurrent-Strukturen.
  131. Die Rueckkopplungen ermoeglichen eine Speicherung der Vergangenheit im
  132. Netz selbst. Damit muessen die Eingangsgroessen zu verschiedenen
  133. Zeitpunkten dem Netz nicht mehr parallel praesentiert werden. Ich weiss
  134. natuerlich nicht, wie gut das Netz fuer chaotische Systeme geeignet ist.
  135. Wenn Du interessiert bist, gebe ich Dir gerne naehere Informationen.
  136.  
  137.         Tschuess
  138. Michael Kuehne
  139. z.Z.
  140. University of Wales College of Cardiff
  141. Elsym
  142. ----------
  143. I have some references but I would be very grateful if yoiu send me  
  144. whatever you get from others.
  145.  
  146. If you have ftp access, you can get PostScript copies of these three
  147. papers from toaster.ee.ubc.ca. Look in pub/shawnd for
  148. the files copenhagen1.ps.Z, copenhagen2.ps.Z, and ieee.ps.Z.
  149.  
  150. Day, Shawn P. and Davenport, Michael R., "Continuous-Time Temporal
  151. Back-Propagation with Adaptable Time Delays", To appear in: IEEE
  152. Transactions on Neural Networks.
  153.  
  154. Day, Shawn P. and Davenport, Michael R. and Camporese, Daniel S.,
  155. "Dispersive Networks for Nonlinear Adaptive Filtering", IEEE
  156. Workshop on Neural Networks for Signal Processing, Helsingor,
  157. Denmark, 1992, pages 540-549.
  158.  
  159. Davenport, Michael R., and Day, Shawn P., "Chaotic Signal Emulation
  160. using a Recurrent Time Delay Neural Network", IEEE Workshop on
  161. Neural Networks for Signal Processing, Helsingor, Denmark, 1992,
  162. pages 454-463.
  163.  
  164.  
  165. 1. (Just in case) see the book Nonlinear Modeling and Forecasting
  166.    (ed. M.Casdagli and S. Eubank), SFI Studies in the Sciences of
  167.    Complexity, Proceedings Vol. XII, Addison-Wesley NY (1992). {lotsa
  168.    net papers}
  169.  
  170.  
  171. 2. D. Nychka, S.Ellner, A.R. Gallant, and D. McCaffrey. 1992. 
  172.  
  173.    Finding chaos in noisy systems. J. Royal Statistical Society Ser.  
  174. B vol.54,
  175.    399-426.
  176.  
  177. 3. D. McCaffrey, S. Ellner, A.R. Gallant, D. Nychka. 1992. Estimating
  178.    the Lyapunov exponent of a chaotic system with nonparametric  
  179. regression. 
  180.  
  181.    J. Amer. Stat. Assoc. (in press; to appear this Fall).
  182.  
  183.  
  184. 4. Wolpert, D.M. and R.C. Miall 1990. Detecting chaos with neural  
  185. networks. 
  186.  
  187.    Proc. Roy. Soc. Lond. B 242, 82-86.
  188.  
  189.  A.D. Back and A.C. Tsoi, "FIR and IIR Synapses, a New Neural  
  190. Network"
  191. Architecture for Tine Series Modeling. Neural Computation 3, 375-385 
  192.  
  193. 1991.
  194.  
  195.  N.Z Hakim, J.J. Kaufman, G. Cerf and H.E. Meadows, "A Discrete-Time  
  196. Neural Network Model for Systems Identification" Proceedings  
  197. IJCNN-90. 
  198.  
  199.  
  200.  N.Z Hakim, J.J. Kaufman, G. Cerf and H.E. Meadows, "Nonlinear Time  
  201. Series Prediction with a Discrete-Time Neural Network Model",  
  202. Proceedings 
  203.  
  204. IJCNN-91.
  205.  
  206.  J.A. Villareal and Robert O. Shelton, "A Space-Time Neural Network",  
  207. Presented at the Second Annual Joint Conference on Neural Networks  
  208. and Fuzzy Logic -90.
  209.  
  210.  B.A. Pearlmutter,
  211. "Learning state space trajectories in recurrent neural networks"
  212. IJCNN- 1989.
  213.  
  214. B.A. Pearlmutter,
  215. "Dynamic recurrent neural networks"
  216. CMU-CS-90-196.
  217.  
  218. /Peeter
  219.  
  220. Peeter Akerberg (akerberg@tree.egr.uh.edu)
  221. Dept. of Electrical Engineering
  222. University of Houston
  223. ----------
  224. I am a french PhD student and I have been working with neural nets for time
  225. series predictions for quite a while. We have seen several approaches:
  226. - Perceptron with a time window. I don't believe this would work very well for
  227.     chaotic data, see Weigend and Casdagli.
  228. - Williams and Zipser fully recurrent network. Complicated and very slow.
  229. - Simple Recurrent Networks, like Elman or Jordan. I have choosen such an
  230.     architecture and used it on the chaotic mapping X(n+1) = mu * X(n)
  231.     * (1-X(n)). It works quite well in predicting the trend, but has some
  232.     offset with the real value.
  233. Herve
  234. ----------
  235. A good, general collection of papers on time-series prediction w/ NN and
  236. related subjects can be found in the volume:
  237.  
  238.    Martin Casdagli and Stephen Eubank (Eds.)  "Nonlinear modeling and
  239.           Forecasting."  1992.  
  240.  
  241. This is proceedings volume XII from the Santa Fe Institute for Studies in
  242. the Sciences of Complexity.
  243.  
  244. Sincerely,
  245.  
  246. An Nguyen
  247.  
  248. ==========================================================================
  249.    Lex-Kon, Inc. * 3731 Shimmons Circle * Auburn Hills, MI 48328 * USA
  250.               Tel.: +1 313 994-4514 * E-mail: an@verbum.com
  251.             Neural Networks, Fuzzy Systems, Genetic Algorithms  
  252. ----------
  253.  
  254. Thanks again,
  255.  
  256. Gerolf.
  257. -- 
  258. Gerolf J. Starke                              phone: +49/631/205-2128
  259. Institute of Applied Mechanics                internet: starke@rhrk.uni-kl.de
  260. University of Kaiserslautern, 6750            compuserve: 100010,3451
  261. Germany                                       fax: +49/631/205-3055
  262.