home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #16 / NN_1992_16.iso / spool / comp / ai / neuraln / 2867 < prev    next >
Encoding:
Text File  |  1992-07-21  |  1.3 KB  |  33 lines

  1. Newsgroups: comp.ai.neural-nets
  2. Path: sparky!uunet!destroyer!wsu-cs!wsu-eng.eng.wayne.edu!uds
  3. From: uds@wsu-eng.eng.wayne.edu (Seetamraju Udaybhaskar)
  4. Subject: Re: Learning what COULD be learned
  5. Message-ID: <1992Jul22.005147.2391@cs.wayne.edu>
  6. Sender: usenet@cs.wayne.edu (Usenet News)
  7. Reply-To: uds@wsu-eng.eng.wayne.edu (Seetamraju Udaybhaskar)
  8. Organization: Wayne State University, Detroit
  9. References: <1992Jul7.074650.27125@aber.ac.uk> <13uievINN1mp@iraul1.ira.uka.de> <arms.711663417@spedden> <1992Jul21.082035.8898@aber.ac.uk> <arms.711759321@spedden>
  10. Date: Wed, 22 Jul 1992 00:51:47 GMT
  11. Lines: 20
  12.  
  13. In article <arms.711759321@spedden> arms@cs.UAlberta.CA (Bill Armstrong) writes:
  14. >
  15. >If a tree isn't learning the required task, as shown by a lack of
  16. >further improvement, then you can double the size of the tree for that
  17. >particular output and try again.  Does this make it clear how the
  18. >technique of independent trees would be used?
  19. >
  20. >--
  21. >***************************************************
  22. >Prof. William W. Armstrong, Computing Science Dept.
  23. >University of Alberta; Edmonton, Alberta, Canada T6G 2H1
  24. >arms@cs.ualberta.ca Tel(403)492 2374 FAX 492 1071
  25.  
  26.  
  27. could you clarify, about how, with the number of inputs constant, the
  28. size of the tree could be varied ?
  29.  
  30.  
  31. Seetamraju Udaya Bhaskar Sarma
  32. (email : seetam @ ece7 . eng . wayne . edu)
  33.