home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #18 / NN_1992_18.iso / spool / comp / ai / neuraln / 3281 < prev    next >
Encoding:
Text File  |  1992-08-22  |  1.5 KB  |  41 lines

  1. Newsgroups: comp.ai.neural-nets
  2. Path: sparky!uunet!zaphod.mps.ohio-state.edu!caen!destroyer!ubc-cs!unixg.ubc.ca!kakwa.ucs.ualberta.ca!alberta!arms
  3. From: arms@cs.UAlberta.CA (Bill Armstrong)
  4. Subject: Re: Reducing Training time vs Generalisation
  5. Message-ID: <arms.714517138@spedden>
  6. Sender: news@cs.UAlberta.CA (News Administrator)
  7. Nntp-Posting-Host: spedden.cs.ualberta.ca
  8. Organization: University of Alberta, Edmonton, Canada
  9. References: <Bt9GIx.9In.1@cs.cmu.edu> <arms.714289771@spedden> <?.714342847@tazdevil>
  10. Date: Sat, 22 Aug 1992 20:58:58 GMT
  11. Lines: 28
  12.  
  13. henrik@mpci.llnl.gov (Henrik Klagges) writes:
  14.  
  15. >arms@cs.UAlberta.CA (Bill Armstrong) writes:
  16.  
  17. ...
  18.  
  19. >>coming closer all the time to a logical net.  If you are able to
  20. >>replace sigmoids with sharp thresholds, and not change the output of
  21. >>the net significantly, then you are really using threshold *logic*
  22. >>nets.  
  23.  
  24. >Well, if this replaceability is there ... would be great ! Don't 
  25. >think so, though. I'd need a few more experiments on that. 
  26. >An inital look suggests that the weights & sigmoids cannot easily
  27. >(straightforwardly) replaced with 'gates'.
  28.  
  29. For training, maybe you have a problem.  ALNs don't.  So we can train
  30. to get piecewise constant functions.  The final step is smoothing,
  31. which is fairly straightforward, if not trivial, and is efficient.
  32.  
  33. Bill
  34.  
  35.  
  36. --
  37. ***************************************************
  38. Prof. William W. Armstrong, Computing Science Dept.
  39. University of Alberta; Edmonton, Alberta, Canada T6G 2H1
  40. arms@cs.ualberta.ca Tel(403)492 2374 FAX 492 1071
  41.