home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1993 #1 / NN_1993_1.iso / spool / comp / ai / neuraln / 4793 < prev    next >
Encoding:
Internet Message Format  |  1993-01-11  |  3.4 KB

  1. Xref: sparky comp.ai.neural-nets:4793 bionet.neuroscience:637 comp.ai:4814
  2. Path: sparky!uunet!zaphod.mps.ohio-state.edu!darwin.sura.net!bogus.sura.net!howland.reston.ans.net!usc!usc!not-for-mail
  3. From: jdevlin@pollux.usc.edu (Joseph T. Devlin)
  4. Newsgroups: comp.ai.neural-nets,bionet.neuroscience,comp.ai
  5. Subject: Re: Biologically Plausible Dynamic Artificial Neural Networks
  6. Date: 11 Jan 1993 11:42:25 -0800
  7. Organization: University of Southern California, Los Angeles, CA
  8. Lines: 57
  9. Message-ID: <1isij1INN5gs@pollux.usc.edu>
  10. References: <1993Jan11.140108.8022@rhrk.uni-kl.de>
  11. NNTP-Posting-Host: pollux.usc.edu
  12. Summary: The level of the model varies according the task
  13. Keywords: ANN, biological modeling, cognitive modeling
  14.  
  15. Ulf Andrick  writes:
  16. >I just wanted to counter the view that Artificial Neural
  17. >Networks (ANN) are suitable to explain everything in the brain.
  18.  
  19.   I think I can be fairly confident when I say that no-one
  20. really suggests that ANNs might explain "everything in the
  21. brain" - that'd be a neat trick!  It'd put us all out jobs,
  22. however...
  23.  
  24. >Further more, the posting I answered to referred to small
  25. >neural systems in simple organisms, and here, I don't see a
  26. >field for the application of ANN. I think of the stomatogastric
  27. >ganglion of the crab or the flight generator of the locust
  28. >when talking about small neural systems. 
  29.  
  30.   I think this depends on what exactly you are referring to
  31. when you say "Artificial Neural Net (ANN)".  If you mean any
  32. computational model of neural activity then certainly
  33. Selverston's work at UCSD qualifies as a small ANN in a simple
  34. organism (the lobster stomatoganglion system).
  35.   If, on the other hand, you mean solely the more traditional
  36. ANNs such as the models in McClelland and Rumelhart's PDP book
  37. then I would agree.  These types of models seem to provide no
  38. real insight into detailed neural systems that are fairly well
  39. characterized biologically but I don't believe they were intended
  40. to, either.  PDP models are more useful for modeling cognitive
  41. issues where the underlying biology is as yet unknown but 
  42. nonetheless the modeler would like to capture general components
  43. of the biology - such as distributed representation, massive
  44. parallelism, etc.  As it stands there is certainly debate concerning
  45. the usefullness of these models - see the ongoing McCloskey/Seidenberg
  46. debate - but  I like Seidenberg's arguments which I think are very
  47. elegant (but I work in his lab so I'm biased. :-) 
  48.  
  49.                             - Joe
  50.  
  51. *************************************************************************
  52. Joseph Devlin                      * email: jdevlin@pollux.usc.edu
  53. University of Southern California  *
  54. Department of Computer Science     * "The axon doesn't think.
  55. Los Angeles, CA 90089              *  It just ax."  George Bishop
  56. *************************************************************************
  57.  
  58.   McClelland and Rumelhart (1986) _Parallel Distributed Processing_, MIT Press.
  59.  
  60.   McCloskey (1992) Networks and theories: The place of connectionism in cognitive
  61. science. _Psychogical Science_
  62.  
  63.   Rowat & Selverston (1991) Learning algorithms for oscillatory networks with
  64. gap junctions and membrane currents.  _Networks 2_, 17-41.
  65.  
  66.   Seidenberg (in press) [A response to McCloskey...] _Psychological Science_
  67.  
  68. Note: The references are from memory basically so I apologize for any
  69.       inaccuracies in advance.  I just can't remember the title of the
  70.       Seidenberg paper - my copy doesn't have one.
  71.  
  72.