home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #16 / NN_1992_16.iso / spool / comp / ai / neuraln / 2918 < prev    next >
Encoding:
Text File  |  1992-07-24  |  2.0 KB  |  43 lines

  1. Newsgroups: comp.ai.neural-nets
  2. Path: sparky!uunet!gatech!destroyer!ubc-cs!unixg.ubc.ca!kakwa.ucs.ualberta.ca!alberta!arms
  3. From: arms@cs.UAlberta.CA (Bill Armstrong)
  4. Subject: Re: neural nets and generalization (was Why not trees?)
  5. Message-ID: <arms.711990060@spedden>
  6. Sender: news@cs.UAlberta.CA (News Administrator)
  7. Nntp-Posting-Host: spedden.cs.ualberta.ca
  8. Organization: University of Alberta, Edmonton, Canada
  9. References: <arms.711643374@spedden> <4458@rosie.NeXT.COM>
  10. Date: Fri, 24 Jul 1992 15:01:00 GMT
  11. Lines: 30
  12.  
  13. paulking@next.com (Paul King) writes:
  14.  
  15. >Hidden units are interesting because they occasionally converge
  16. >on an intermediate representation that highlights regularities
  17. >in the behavior of the black box.  These intermediate states can
  18. >then be used as inferred information about internal states of the
  19. >black box, which can be useful as inputs to further networks.
  20.  
  21. >As an example, consider handwriting recognition.  Mapping input
  22. >drawings to target characters might result in hidden-units that
  23. >correlate with subfeatures in the input drawings.  This ability
  24. >to map input drawings to subfeatures might then benefit a higher-level
  25. >system that maps subfeatures to words, bypassing the character
  26. >representation altogether.  One now has a network that can recognize
  27. >words even if certain letters are incompletely written.
  28.  
  29. I agree that discovery of subfeatures is useful, but how much extra
  30. interconnection is required -- complete connections to all elements in
  31. the preceding layer?  If you cut down on the number of connections, you
  32. cut the time of executing the net.  Go too far -- and you eliminate the
  33. possibility of finding subfeatures that are shared.
  34.  
  35. Maybe the only remaining question is how many connections should be set
  36. up initially to do this optimally.
  37.  
  38. --
  39. ***************************************************
  40. Prof. William W. Armstrong, Computing Science Dept.
  41. University of Alberta; Edmonton, Alberta, Canada T6G 2H1
  42. arms@cs.ualberta.ca Tel(403)492 2374 FAX 492 1071
  43.