home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #19 / NN_1992_19.iso / spool / comp / ai / neuraln / 3368 < prev    next >
Encoding:
Internet Message Format  |  1992-09-01  |  1.0 KB

  1. Path: sparky!uunet!stanford.edu!rutgers!ub!acsu.buffalo.edu!ambati
  2. From: ambati@acsu.buffalo.edu (Balamural K. Ambati)
  3. Newsgroups: comp.ai.neural-nets
  4. Subject: Re: Kolmogorov's theorem
  5. Message-ID: <Btx1us.Kzr@acsu.buffalo.edu>
  6. Date: 1 Sep 92 20:20:52 GMT
  7. References: <BtuMKD.14p@acsu.buffalo.edu> <94995@bu.edu>
  8. Sender: nntp@acsu.buffalo.edu
  9. Organization: UB
  10. Lines: 21
  11. Nntp-Posting-Host: lictor.acsu.buffalo.edu
  12.  
  13. lnd@cs.bu.edu (Levin) writes:
  14.  
  15. >In article <BtuMKD.14p@acsu.buffalo.edu> ambati@ (Balamural K. Ambati) writes:
  16. >>Could someone post some info. on Kolmogorov's theorem on reconstruction
  17. >>of multidimensional functions and information processing in neural
  18. >>networks?  Also refs. if possible. Thanks.
  19.  
  20. >Every continuous multivariate real function can be represented as a depth-4
  21. >composition of continuous one-variate functions and sum. This result of
  22. >Kolmogorov and his student Arnold solves the 13-th Hilbert problem.
  23.  
  24. What implications does this have for capacities for neural networks?
  25.  
  26. Thanks.
  27.  
  28. Balamurali K. Ambati
  29.  
  30. ambati@ubunix.buffalo.edu
  31.  
  32.  
  33. .
  34.