home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #18 / NN_1992_18.iso / spool / comp / ai / neuraln / 3278 < prev    next >
Encoding:
Text File  |  1992-08-22  |  2.7 KB  |  66 lines

  1. Newsgroups: comp.ai.neural-nets
  2. Path: sparky!uunet!gatech!destroyer!ubc-cs!unixg.ubc.ca!kakwa.ucs.ualberta.ca!alberta!arms
  3. From: arms@cs.UAlberta.CA (Bill Armstrong)
  4. Subject: Re: Wild values (was Reducing Training time ...)
  5. Message-ID: <arms.714513377@spedden>
  6. Sender: news@cs.UAlberta.CA (News Administrator)
  7. Nntp-Posting-Host: spedden.cs.ualberta.ca
  8. Organization: University of Alberta, Edmonton, Canada
  9. References: <9208201551.AA02766@neuron.siemens.com>
  10. Date: Sat, 22 Aug 1992 19:56:17 GMT
  11. Lines: 53
  12.  
  13. kpfleger@NEURON.SIEMENS.COM (Karl Pfleger) writes:
  14.  
  15. >1 quick point and 1 wild idea:
  16.  
  17. >First, if one desires to avoid wild output values for certain regions of
  18. >input space, one ought to have training pairs from that region of input
  19. >space in the training set. The point about desiring certain behavior on
  20. >0 to 1 and not including any training pairs from that region has already
  21. >been made.
  22.  
  23. I agree that this would be desirable.  In some cases you don't have
  24. the training points, and in other cases you could never get them
  25. because there are just too many points in the space. High dimensional
  26. real-valued data will always have the latter problem.
  27.  
  28. >Vaguely similar: since the inputs that will be thrown at the system in actual
  29. >use will have some probability distribution based on whatever the system is
  30. >doing, the training set should be generated by sampling the same
  31. >distribution, or something as close to it as possible, NOT by picking a
  32. >few values by hand or by using a lattice or points regularly spaced
  33. >(unless that represents the distribution well).
  34.  
  35. The same example of non-safety will also work (neglecting numerical
  36. errors) provided you take a random sampling of a few points according
  37. to any distribution you like, except where you are not lucky enough to
  38. have points in [0,1].  As I said, the fact that integer training and
  39. test points are used is not significant.  The example of "wild"
  40. behavior is not that easy to break down.
  41.  
  42.  
  43. >I have a much more difficult time picturing wild values coming from a
  44. >network trained on a significant number of random, real inputs than I do
  45. >coming from a network trained on a handful of regularly spaced
  46. >integers.
  47.  
  48. Try it and see.  You'll still have the problem.
  49.  
  50. >A wild idea for people trying to avoid wild values (e.g. for safety
  51. >critical applications etc.): Once the network has been trained and the
  52. >weights are fixed, ...
  53.  
  54. Your idea needs work, but calculating the aprtials and getting a
  55. Lipschitz condition with a reasonable constant could work.
  56.  
  57. Thanks for your comments.
  58.  
  59. Bill
  60.  
  61. --
  62. ***************************************************
  63. Prof. William W. Armstrong, Computing Science Dept.
  64. University of Alberta; Edmonton, Alberta, Canada T6G 2H1
  65. arms@cs.ualberta.ca Tel(403)492 2374 FAX 492 1071
  66.