home *** CD-ROM | disk | FTP | other *** search
/ Monster Media 1993 #2 / Image.iso / text / 9305nni.zip / 930520.PPR < prev    next >
Internet Message Format  |  1993-05-20  |  6KB

  1. From ml-connectionists-request@q.cs.cmu.edu Thu May 20 04:54:14 1993
  2. Received: by cse.uta.edu (5.57/Ultrix2.4-C)
  3.     id AA08478; Thu, 20 May 93 06:54:06 -0500
  4. Received: from Q.CS.CMU.EDU by q.cs.CMU.EDU id aa28213; 19 May 93 22:50:50 EDT
  5. Received: from DST.BOLTZ.CS.CMU.EDU by Q.CS.CMU.EDU id aa28200;
  6.           19 May 93 22:20:52 EDT
  7. Received: from DST.BOLTZ.CS.CMU.EDU by DST.BOLTZ.CS.CMU.EDU id aa21633;
  8.           19 May 93 22:20:18 EDT
  9. Received: from CS.CMU.EDU by B.GP.CS.CMU.EDU id aa02126; 19 May 93 16:42:27 EDT
  10. Received: from max.ee.lsu.edu by CS.CMU.EDU id aa11084; 19 May 93 16:41:58 EDT
  11. Received: by max.ee.lsu.edu (4.0/1.34)
  12.     id AA28051; Wed, 19 May 93 15:41:28 CDT
  13. Date: Wed, 19 May 93 15:41:28 CDT
  14. From: John Pastor <pastor@max.ee.lsu.edu>
  15. Message-Id: <9305192041.AA28051@max.ee.lsu.edu>
  16. To: connectionists@cs.cmu.edu
  17. Status: R
  18.  
  19. The following technical report is now available. If you would
  20. like to have a copy, please let me know.
  21.  
  22. ------------------------------------------------------------------
  23. Technical Report ECE/LSU 93-04
  24.  
  25.                  Another Alternative to Backpropagation: 
  26.                 A One Pass Classification Scheme for Use 
  27.                          with the Kak algorithm 
  28.  
  29.                              John F. Pastor 
  30.              Department of Electrical and Computer Engineering 
  31.                        Louisiana State University 
  32.                          Baton Rouge, La. 70803
  33.                              April 26,1993
  34.                       email: pastor@max.ee.lsu.edu
  35.  
  36.                                 ABSTRACT
  37.      Kak[1] provides a new technique for designing, and training, a 
  38. feedforward neural network.  Training with the Kak algorithm is much
  39. faster, and is implemented much more easily, than with the backpropagation
  40. algorithm[2].  The Kak algorithm calls for the construction of a network
  41. with one hidden layer.  Each hidden neuron classifies an input vector in
  42. the training set that maps to a nonzero output vector.  Kak[1] also 
  43. presents two classification algorithms.  The first, CC1, provides 
  44. generalization comparable to backpropagation[2] but may require numerous
  45. passes through the training set to classify one input vector.  The second,
  46. CC2, only requires inspection of the vector we wish to classify but does
  47. not provide generalization.  An extension of CC2 is suggested as a new
  48. classification scheme that will classify an input vector with only one
  49. pass through the training set yet will provide generalization.  Simulation
  50. results are presented that demonstrate that using the new classification
  51. scheme not only signifigantly reduces training time, but provides better
  52. generalization capabilities, than classifying with CC1.  Thus, the Kak
  53. algorithm, using this new classification scheme, is an even better
  54. alternative to backpropagation.
  55.  
  56. From ml-connectionists-request@q.cs.cmu.edu Wed May 19 21:49:51 1993
  57. Received: by cse.uta.edu (5.57/Ultrix2.4-C)
  58.     id AA06173; Wed, 19 May 93 23:49:44 -0500
  59. Received: from Q.CS.CMU.EDU by q.cs.CMU.EDU id ab28148; 19 May 93 22:29:10 EDT
  60. Received: from DST.BOLTZ.CS.CMU.EDU by Q.CS.CMU.EDU id ab28145;
  61.           19 May 93 22:03:55 EDT
  62. Received: from DST.BOLTZ.CS.CMU.EDU by DST.BOLTZ.CS.CMU.EDU id aa21606;
  63.           19 May 93 22:03:14 EDT
  64. Received: from CS.CMU.EDU by B.GP.CS.CMU.EDU id aa25789; 19 May 93 3:13:51 EDT
  65. Received: from cssu28.ust.hk by CS.CMU.EDU id aa05799; 19 May 93 2:15:50 EDT
  66. Received: by cssu28.cs.ust.hk (4.1/SMI-4.1)
  67.     id AA21563; Wed, 19 May 93 14:14:10 HKT
  68. Date: Wed, 19 May 93 14:14:10 HKT
  69. From: "Dr. Michael D. Stiber" <stiber@cs.ust.hk>
  70. Message-Id: <9305190614.AA21563@cs.ust.hk>
  71. To: Connectionists@cs.cmu.edu
  72. Subject: Paper in neuroprose: Learning In Neural Models With Complex Dynamics
  73. Ftp-Host: archive.cis.ohio-state.edu
  74. Ftp-Filename: /pub/neuroprose/stiber.dynlearn.ps.Z
  75. Status: R
  76.  
  77. The following preprint has been placed in the Neuroprose archives at
  78. Ohio State (filename: stiber.dynlearn.ps.Z).  If you cannot use FTP, I
  79. can email the file to you.
  80.  
  81.       "Learning In Neural Models With Complex Dynamics" (4 pages)
  82.  
  83.                 Michael Stiber
  84.             Department of Computer Science
  85.       The Hong Kong University of Science and Technology
  86.          Clear Water Bay, Kowloon, Hong Kong
  87.                stiber@cs.ust.hk
  88.                    
  89.                Jose P. Segundo
  90.         Department of Anatomy and Cell Biology
  91.              and Brain Research Institute
  92.                University of California
  93.           Los Angeles, California 90024, USA
  94.                iaqfjps@mvs.oac.ucla.edu
  95.  
  96.                    Abstract
  97.  
  98. Interest in the ANN field has recently focused on dynamical neural
  99. {\em networks} for performing temporal operations, as more realistic
  100. models of biological information processing, and to extend ANN
  101. learning techniques. While this represents a step towards realism, it
  102. is important to note that {\em individual} neurons are complex
  103. dynamical systems, interacting through nonlinear, nonmonotonic
  104. connections. The result is that the ANN concept of {\em learning},
  105. even when applied to a single synaptic connection, is a nontrivial
  106. subject.
  107.  
  108. Based on recent results from living and simulated neurons, a first
  109. pass is made at clarifying this problem. We summarize how synaptic
  110. changes in a 2-neuron, single synapse neural network can change system
  111. behavior and how this constrains the type of modification scheme that
  112. one might want to use for realistic neuron-like processors.
  113.  
  114. Dr. Michael Stiber                    stiber@cs.ust.hk
  115. Department of Computer Science                tel: (852) 358 6981
  116. The Hong Kong University of Science & Technology    fax: (852) 358 1477
  117. Clear Water Bay, Kowloon, Hong Kong
  118.  
  119.