home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1993 #3 / NN_1993_3.iso / spool / comp / ai / neuraln / 4936 next >
Encoding:
Text File  |  1993-01-21  |  1004 b   |  24 lines

  1. Newsgroups: comp.ai.neural-nets
  2. Path: sparky!uunet!haven.umd.edu!darwin.sura.net!news.udel.edu!chopin.udel.edu!19064
  3. From: 19064@chopin.udel.edu (Liang-Wen Chang)
  4. Subject: Kolmogorov's approximation theorem
  5. Message-ID: <C1762q.Hpt@news.udel.edu>
  6. Summary: constructive 
  7. Sender: usenet@news.udel.edu
  8. Nntp-Posting-Host: chopin.udel.edu
  9. Organization: University of Delaware
  10. Date: Thu, 21 Jan 1993 09:23:13 GMT
  11. Lines: 11
  12.  
  13. The impression of Kolmogorov's approximation theorem given by R. H.
  14. Nielsen was existence theorem.  However, recent papers (G. G. Lorentz)
  15. have shown the constructive side of the theorem.  My questions are
  16. a. How powerful is this constructive procedure to handle complicated
  17. systems presented as functions?  b. What is the analogy between 
  18. recurrent neural networks and the Kolmogorov's approximation theorem?
  19. c. Do we treat Neural networks as a design problem or a problem of
  20. function approximation given that there exists Kolmogorov's theorem to
  21. construct functions abstractly?
  22.  
  23. Boris
  24.