home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #16 / NN_1992_16.iso / spool / comp / ai / neuraln / 2876 < prev    next >
Encoding:
Text File  |  1992-07-22  |  2.2 KB  |  47 lines

  1. Newsgroups: comp.ai.neural-nets
  2. Path: sparky!uunet!zaphod.mps.ohio-state.edu!wupost!gumby!destroyer!ubc-cs!unixg.ubc.ca!kakwa.ucs.ualberta.ca!alberta!arms
  3. From: arms@cs.UAlberta.CA (Bill Armstrong)
  4. Subject: Re: Learning what COULD be learned
  5. Message-ID: <arms.711809827@spedden>
  6. Sender: news@cs.UAlberta.CA (News Administrator)
  7. Nntp-Posting-Host: spedden.cs.ualberta.ca
  8. Organization: University of Alberta, Edmonton, Canada
  9. References: <1992Jul7.074650.27125@aber.ac.uk> <13uievINN1mp@iraul1.ira.uka.de> <arms.711663417@spedden> <1992Jul21.082035.8898@aber.ac.uk> <arms.711759321@spedden> <1992Jul22.005147.2391@cs.wayne.edu>
  10. Date: Wed, 22 Jul 1992 12:57:07 GMT
  11. Lines: 34
  12.  
  13. uds@wsu-eng.eng.wayne.edu (Seetamraju Udaybhaskar) writes:
  14.  
  15. >In article <arms.711759321@spedden> arms@cs.UAlberta.CA (Bill Armstrong) writes:
  16. >>
  17. >>If a tree isn't learning the required task, as shown by a lack of
  18. >>further improvement, then you can double the size of the tree for that
  19. >>particular output and try again.  Does this make it clear how the
  20. >>technique of independent trees would be used?
  21.  
  22. >could you clarify, about how, with the number of inputs constant, the
  23. >size of the tree could be varied ?
  24.  
  25. Sure.  The use of the term tree is a misnomer if you also include the
  26. inputs, which must be in general connected to several nodes in the
  27. first layer of elements.  Sorry for the terminological problem.
  28. To learn XOR, for example, you could start with at tree of two layers
  29. and synthesize x1* (~ x2) + x2 * (~x1). The input layer fans out to two
  30. nodes each.  Those nodes are ANDs (*) and those ANDs output to an OR.
  31.  
  32. What I have against non-trees is that there has to be a good reason
  33. for supposing that a node's learned output will serve two or more
  34. specific needs well.  This seems to me to make learning much harder.
  35. But at the input level, there is no learning, so the argument doesn't apply.
  36. Besides, the only way to generate arbitrary functions is with repeated use of
  37. inputs (and complements in the case of ALNs).
  38.  
  39. Hope that clears it up.
  40.  
  41. Bill
  42. --
  43. ***************************************************
  44. Prof. William W. Armstrong, Computing Science Dept.
  45. University of Alberta; Edmonton, Alberta, Canada T6G 2H1
  46. arms@cs.ualberta.ca Tel(403)492 2374 FAX 492 1071
  47.