home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #16 / NN_1992_16.iso / spool / comp / ai / neuraln / 2884 < prev    next >
Encoding:
Text File  |  1992-07-22  |  1.9 KB  |  42 lines

  1. Newsgroups: comp.ai.neural-nets
  2. Path: sparky!uunet!cs.utexas.edu!qt.cs.utexas.edu!yale.edu!cs.yale.edu!tsioutsias-dimitris
  3. From: tsioutsias-dimitris@CS.YALE.EDU (Dimitris Tsioutsias)
  4. Subject: What can NN really do.
  5. Message-ID: <1992Jul23.024136.6125@cs.yale.edu>
  6. Sender: news@cs.yale.edu (Usenet News)
  7. Nntp-Posting-Host: systemsx-gw.cs.yale.edu
  8. Organization: Yale University Computer Science Dept., New Haven, CT 06520-2158
  9. Date: Thu, 23 Jul 1992 02:41:36 GMT
  10. Lines: 30
  11.  
  12. I've been reading for some time the postings in this newsgroup and 
  13. I have the feeling that many people have turned to the use or 
  14. had to turn to the use of NN without having realized what actually
  15. can and what cannot be done with them. Many think that if you set up
  16. a bp net, and feed it with some data, then you have solved all your
  17. problems!
  18.  
  19. In fact, NN are just a test bed for the much more complicated
  20. and comlpex (and thus evasive, along with its rules) prototype of
  21. knowledge aquisition, that is the brain. As with powerful supercomputers
  22. that run simulations to test the evolution of the Universe based on
  23. well established known physical laws but on a much smaller and simplified
  24. scale, the NN are just the tools to emulate the behaviour of the living
  25. tissue that forms up the brain. 
  26.  
  27. The point to understand here is that what is important is not so much the 
  28. use of 10 or 100 units here or there, but the unraveling of the RULES that
  29. are hidden behind them. HOW these neurons interact with each other in such
  30. a massively parallel and compicated way, as happens with the brain itself.
  31.  
  32. So, try to experiment with the rules and the dynamics of the nets and
  33. not merely with a good or better data set. After all, the human brain
  34. can easily generalize and be trained with poor training sets and even
  35. learn more from "false" data, that enable it to extrapolate, analyze and
  36. LEARN. Don't loose the forest behind the first few trees!
  37.  
  38.  
  39. ->dimitris
  40.  
  41.  
  42.