home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #16 / NN_1992_16.iso / spool / comp / ai / neuraln / 2866 < prev    next >
Encoding:
Text File  |  1992-07-21  |  2.1 KB  |  46 lines

  1. Newsgroups: comp.ai.neural-nets
  2. Path: sparky!uunet!wupost!gumby!destroyer!ubc-cs!alberta!arms
  3. From: arms@cs.UAlberta.CA (Bill Armstrong)
  4. Subject: Re: Learning what COULD be learned
  5. Message-ID: <arms.711759321@spedden>
  6. Sender: news@cs.UAlberta.CA (News Administrator)
  7. Nntp-Posting-Host: spedden.cs.ualberta.ca
  8. Organization: University of Alberta, Edmonton, Canada
  9. References: <1992Jul7.074650.27125@aber.ac.uk> <13uievINN1mp@iraul1.ira.uka.de> <arms.711663417@spedden> <1992Jul21.082035.8898@aber.ac.uk>
  10. Date: Tue, 21 Jul 1992 22:55:21 GMT
  11. Lines: 33
  12.  
  13. dbk@aber.ac.uk (D B Kell) writes:
  14.  
  15. >In article <arms.711663417@spedden> arms@cs.UAlberta.CA (Bill Armstrong) writes:
  16. >>The impediment to learning of one output by others that are difficult
  17. >>or impossible is closely related to the "Why not trees?" question I
  18. >>am asking.  If you use trees, this harmful interaction can't occur.
  19.  
  20.  
  21. >Please elaborate much more explicitly! **HOW** do the trees flag that
  22. >some things are not learnable, others are.
  23.  
  24. If a tree isn't learning the required task, as shown by a lack of
  25. further improvement, then you can double the size of the tree for that
  26. particular output and try again.  Does this make it clear how the
  27. technique of independent trees would be used?
  28.  
  29. Deciding whether a given function can be *learned* is a different
  30. issue -- complicated considerably by the question "does it generalize
  31. well?  After all, we are allowing contradictory training points as
  32. well as pattern recognition problems with overlapping
  33. class-conditional probabilities; so what does it mean to learn?
  34. Certainly not just being 100% correct on the training data (and
  35. "overtrained").  Any boolean function is realizable by an ALN; any
  36. continuous function can be approximated to any desired degree of
  37. precision without exhorbitant hardware cost.  Discontinuous functions
  38. can also be produced.  However, it sounds like an intractable, even
  39. ill-defined problem to flag things as "unlearnable".
  40.  
  41. --
  42. ***************************************************
  43. Prof. William W. Armstrong, Computing Science Dept.
  44. University of Alberta; Edmonton, Alberta, Canada T6G 2H1
  45. arms@cs.ualberta.ca Tel(403)492 2374 FAX 492 1071
  46.