home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #19 / NN_1992_19.iso / spool / comp / ai / neuraln / 3357 < prev    next >
Encoding:
Internet Message Format  |  1992-08-31  |  1.0 KB

  1. Xref: sparky comp.ai.neural-nets:3357 sci.math:10727 comp.theory:1841
  2. Path: sparky!uunet!cis.ohio-state.edu!pacific.mps.ohio-state.edu!linac!att!bu.edu!cs!lnd
  3. From: lnd@cs.bu.edu (Levin)
  4. Newsgroups: comp.ai.neural-nets,sci.math,comp.theory
  5. Subject: Re: Kolmogorov's theorem
  6. Message-ID: <94995@bu.edu>
  7. Date: 31 Aug 92 14:13:54 GMT
  8. References: <BtuMKD.14p@acsu.buffalo.edu>
  9. Sender: news@bu.edu
  10. Reply-To: Lnd@cs.bu.edu
  11. Followup-To: comp.ai.neural-nets
  12. Lines: 12
  13.  
  14. In article <BtuMKD.14p@acsu.buffalo.edu> ambati@ (Balamural K. Ambati) writes:
  15. >Could someone post some info. on Kolmogorov's theorem on reconstruction
  16. >of multidimensional functions and information processing in neural
  17. >networks?  Also refs. if possible. Thanks.
  18.  
  19. Every continuous multivariate real function can be represented as a depth-4
  20. composition of continuous one-variate functions and sum. This result of
  21. Kolmogorov and his student Arnold solves the 13-th Hilbert problem.
  22.  
  23.  A.N.Kolmogorov. Soviet Math. Doklady (DAN SSSR) 108(2), 1956.
  24.  V.I.Arnold. Same 114(4), 1957.
  25.  A.N.Kolmogorov. Same 114(5), 1957.
  26.