home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #18 / NN_1992_18.iso / spool / comp / ai / neuraln / 3153 < prev    next >
Encoding:
Text File  |  1992-08-12  |  3.0 KB  |  66 lines

  1. Newsgroups: comp.ai.neural-nets
  2. Path: sparky!uunet!cs.utexas.edu!usc!wupost!gumby!destroyer!ubc-cs!alberta!arms
  3. From: arms@cs.UAlberta.CA (Bill Armstrong)
  4. Subject: Re: Characterizing learnable functions
  5. Message-ID: <arms.713626067@spedden>
  6. Sender: news@cs.UAlberta.CA (News Administrator)
  7. Nntp-Posting-Host: spedden.cs.ualberta.ca
  8. Organization: University of Alberta, Edmonton, Canada
  9. References: <1992Aug10.223138.25927@cco.caltech.edu> <1992Aug11.111206.25386@cs.tu-berlin.de> <arms.713550511@spedden> <1992Aug12.112845.1060@cs.tu-berlin.de>
  10. Date: Wed, 12 Aug 1992 13:27:47 GMT
  11. Lines: 53
  12.  
  13. async@opal.cs.tu-berlin.de (Stefan M. Rueger) writes:
  14.  
  15. >arms@cs.UAlberta.CA (Bill Armstrong) writes:
  16. >>Maybe consumers of NNs should ask for and insist on Lipschitz conditions:
  17. >>   |output(a) - output(b)| <=  const * | a - b |
  18. >>
  19. >>for all a, b in the domain of the function. 
  20. >>
  21.  
  22. >These Lipschitz-functions **are** continuous and thus covered  by the
  23. >results of Cybernko, described in my original article.
  24.  
  25. >>                                             Better yet, replace the
  26. >>const by some C(a) to take into account more a priori knowledge of
  27. >>where you want a smoother function.
  28. >>
  29. >>Has anyone ever worked out this form of approximation?  At least
  30. >>it would be more useful than continuity.
  31.  
  32. >If the C(a) have an upper bound, say K, (this is always true, if the
  33. >function has a compact domain) then again those functions are of
  34. >Lipschitz type and thus continuous. 
  35.  
  36. I agree with you (except that you don't need a bound K, just
  37. finiteness of C(a)).  My point was that specifying continuity of
  38. functions in a digital world is vacuous.  Any function whatsoever on
  39. any set of floating-point numbers (always finite) can be extended to a
  40. continuous one on the real line (for example).  What I'm saying is
  41. that the theory of continuity (i.e. topology) is not applicable, and
  42. is not what users of neural networks should be asking for.  They
  43. should say in contracts: "The network resulting from training shall
  44. satisfy a Lipschitz condition with constant ___".
  45.  
  46. The critical thing is this: with a Lipschitz condition, you can use a
  47. finite test set together with the Lipschitz condition to conclude that
  48. there are no points with values outside allowable limits.  If you just
  49. test the net, then you have no knowledge of the values produced by the
  50. net between test points.  The net can produce "wild" values at points you
  51. haven't tested, and hence be unsafe to use.
  52.  
  53. In short: For purposes of producing useful nets, who cares whether any
  54. continuous function is realizable or learnable?  It just means your
  55. theory is satisfying provided you neglect questions of representations
  56. of real numbers and computer arithmetic.  It doesn't mean a thing in
  57. practice.
  58.  
  59. I like your idea of a bound K.  Can you compute it for a given net?
  60. Can you force it to be small by appropriate training procedures?
  61. --
  62. ***************************************************
  63. Prof. William W. Armstrong, Computing Science Dept.
  64. University of Alberta; Edmonton, Alberta, Canada T6G 2H1
  65. arms@cs.ualberta.ca Tel(403)492 2374 FAX 492 1071
  66.