home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #18 / NN_1992_18.iso / spool / comp / ai / neuraln / 3260 < prev    next >
Encoding:
Internet Message Format  |  1992-08-20  |  1.2 KB

  1. Path: sparky!uunet!charon.amdahl.com!pacbell.com!mips!sdd.hp.com!elroy.jpl.nasa.gov!lll-winken!tazdevil!henrik
  2. From: henrik@mpci.llnl.gov (Henrik Klagges)
  3. Newsgroups: comp.ai.neural-nets
  4. Subject: Re: Reducing Training time vs Generalisation
  5. Message-ID: <?.714342847@tazdevil>
  6. Date: 20 Aug 92 20:34:07 GMT
  7. References: <Bt9GIx.9In.1@cs.cmu.edu> <arms.714289771@spedden>
  8. Sender: usenet@lll-winken.LLNL.GOV
  9. Lines: 22
  10. Nntp-Posting-Host: tazdevil.llnl.gov
  11.  
  12. arms@cs.UAlberta.CA (Bill Armstrong) writes:
  13.  
  14. >You have a lot more experience than I do with sigmoid type nets, so
  15. >what you have just said is extremely significant, in that you are
  16.  
  17. Correct. It is a very interesting finding. Same happened during 
  18. our experiments.
  19.  
  20. >coming closer all the time to a logical net.  If you are able to
  21. >replace sigmoids with sharp thresholds, and not change the output of
  22. >the net significantly, then you are really using threshold *logic*
  23. >nets.  
  24.  
  25. Well, if this replaceability is there ... would be great ! Don't 
  26. think so, though. I'd need a few more experiments on that. 
  27. An inital look suggests that the weights & sigmoids cannot easily
  28. (straightforwardly) replaced with 'gates'.
  29.  
  30. Cheers, Henrik
  31. IBM Research Division Physics Group Munich
  32. Massively Parallel Group at Lawrence Livermore
  33.  
  34.