home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #16 / NN_1992_16.iso / spool / comp / ai / neuraln / 2854 < prev    next >
Encoding:
Internet Message Format  |  1992-07-21  |  1.5 KB

  1. Path: sparky!uunet!zaphod.mps.ohio-state.edu!magnus.acs.ohio-state.edu!usenet.ins.cwru.edu!agate!overload.lbl.gov!lll-winken!tazdevil!henrik
  2. From: henrik@mpci.llnl.gov (Henrik Klagges)
  3. Newsgroups: comp.ai.neural-nets
  4. Subject: How to correctly measure time series generalization (?)
  5. Message-ID: <?.711737203@tazdevil>
  6. Date: 21 Jul 92 16:46:43 GMT
  7. Sender: usenet@lll-winken.LLNL.GOV
  8. Lines: 30
  9. Nntp-Posting-Host: tazdevil.llnl.gov
  10.  
  11. Suppose a time series is available, from t=0 to t=99. How are these datapoints
  12. to be partitioned into training & test sets ? (It is assumed that a training/
  13. test vector at 't' is made out of (t-k, t-k+1, ..., t) as inputs and (t+1) as
  14. target output).
  15.  
  16. a) Use 0->X for training, (X+1)->99 for testing;
  17. b) Use n randomly selected t's for training, and the rest for testing.
  18.  
  19. 'a' is straightforward extrapolation, but fails if the time series 'window'
  20. is too small to capture all major cycles in the series (a cycle not visible
  21. from 0-X shows up from X+1 -> 99). This is e.g. likely the case with sunspot
  22. data. If the network's approximation captures the complete problem mechanics,
  23. though, a solution of 'a' works satisfactory for any time 't'.
  24.  
  25. 'b' is a bit of a cheat - it is interpolation. However, for practical purposes
  26. like forecasting only the next ('99+1') sunspot, it may be more reliable than
  27. 'a'. 
  28.  
  29. Comments, please.
  30.  
  31. Cheers, Henrik
  32.  
  33. massively parallel group at Lawrence Livermore
  34. IBM Research physics group Munich
  35.  
  36. --
  37.  
  38. Cheers, Henrik
  39. MPCI at LLNL
  40. IBM Research
  41.