home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #19 / NN_1992_19.iso / spool / comp / ai / neuraln / 3313 < prev    next >
Encoding:
Text File  |  1992-08-25  |  1.3 KB  |  29 lines

  1. Newsgroups: comp.ai.neural-nets
  2. Path: sparky!uunet!usc!rpi!newsserver.pixel.kodak.com!psinntp!psinntp!afs!dave
  3. From: dave@afs.com (David J. Anderson)
  4. Subject: failsafe NNs
  5. Message-ID: <1992Aug25.154640.2817@afs.com>
  6. Sender: dave@afs.com
  7. Date: Tue, 25 Aug 1992 15:46:40 GMT
  8. Lines: 19
  9.  
  10. Having looked at neural nets from the peripery for a while, I'm wondering  
  11. if anyone has looked at NN from the angle of breaking down.
  12.  
  13. As an analogy, it seems to me that every so often I'm faced with a concept  
  14. so radically new, so different, that a good deal of the training I had is  
  15. no longer sure and a new training/exploration mode must be entered to get  
  16. my wetnet back up to speed.
  17.  
  18. Granted, wetnets are a great deal more complex than the NNs we've created  
  19. so far. But I beleive the analogy applies: what happens when the inputs to  
  20. a NN are so weird that they cannot be adequately prepared for? If we start  
  21. using NNs for `smarter' applications, and the penalty for being wrong gets  
  22. nastier, how can we assure that the inputs to the NN can be responded to  
  23. appropriately?
  24.  
  25. ____________________________________________________________________
  26. Dave Anderson  |    ...consequently, society expects all earnestly
  27.   the dman     |    responsible communication to be crisply brief...
  28. dave@afs.com   |    we are not seeking a license to ramble wordily.
  29.