home *** CD-ROM | disk | FTP | other *** search
/ Monster Media 1993 #2 / Image.iso / text / 9305nni.zip / 930524.ANC < prev    next >
Text File  |  1993-05-24  |  20KB  |  402 lines

  1. Article 9211 of comp.ai.neural-nets:
  2. Path: serval!netnews.nwnet.net!hubble.asymetrix.com!kuhub.cc.ukans.edu!moe.ksu.ksu.edu!zaphod.mps.ohio-state.edu!darwin.sura.net!news-feed-1.peachnet.edu!umn.edu!math.fu-berlin.de!fauern!rrze.uni-erlangen.de!late.e-technik.uni-erlangen.de!cia
  3. Newsgroups: comp.ai.neural-nets
  4. Subject: NEW BOOK Neural Networks for Optimization and Signal Processing
  5. Message-ID: <1tobsdEps7@uni-erlangen.de>
  6. From: cia@late.e-technik.uni-erlangen.de (Andreas Cichocki)
  7. Date: Sun, 23 May 1993 17:22:21 GMT
  8. Organization: LATE, Uni-Erlangen, Germany
  9. Keywords: New Book
  10. Summary: Information about new book: NEURAL NETWORKS for OPTIMIZATION and SignalProcessing
  11. NNTP-Posting-Host: late3.e-technik.uni-erlangen.de
  12. Lines: 386
  13.  
  14.  
  15.  New book information:
  16.  
  17.         NEURAL NETWORKS for OPTIMIZATION and SIGNAL PROCESSING
  18.  
  19.              by Andrzej Cichocki and Rolf Unbehauen
  20.            
  21.                ( John Wiley 0471 93010 5 524pp April 1993) 
  22.  
  23. OVERVIEW
  24.  
  25. This book has been written primarily for those who want to apply
  26. artificial neural networks in practice, especially for the on-line
  27. solution of a wide spectrum of optimization, matrix algebra and signal
  28. processing problems. The book shows that artificial neural networks
  29. can be used effectively for solving many scientific and engineering
  30. problems which are formulated mainly as optimization (nonlinear
  31. programming) problems.  
  32. The book does not aim at mathematical rigour, but at conveying understanding
  33. through mathematics, i.e. algorithms and associated functional block
  34. diagrams. In other words, the emphasis is on the mathematical models
  35. of neural networks and the architectures (network  structures)
  36. associated with them. Many computer simulation results presented in
  37. the book reveal (or illustrate) that the architectures developed are
  38. feasible in practice. Most of the computer simulation results were
  39. obtained by using the easily available and popular simulation programs
  40. MATLAB, TUTSIM and SPICE. However, one can use other specialized computer
  41. programs to check the validity and performance of the described
  42. algorithms.
  43. The book  complements other books on the subject of artificial neural
  44. networks rather than compete with them.
  45. This book is not concerned with networks of real
  46. biological neurons but rather with artificial neural networks in
  47. which much of the analogy and inspiration comes from neuroscience.
  48. The subject is approached from the standpoint of an engineer who looks for some
  49. real-life applications. The book rests on the premise that artificial
  50. neural networks are useful, important and interesting for such
  51. applications as optimization, signal processing, optimal control and
  52. identification. Especially, strong emphasis is given for optimization
  53. problems, not only because they enable  to obtain solutions in real
  54. time but also because they allow  to develop new techniques and
  55. architectures and to stimulate the reader to be creative in
  56. visualizing new approaches. The book provides a coverage of artificial
  57. neural network applications in a variety of problems of both
  58. theoretical and practical interest.
  59. The book is partly a textbook and partly a monograph. It is a textbook
  60. because it gives a detailed introduction to artificial neural network
  61. models and basic learning algorithms. It is simultaneously a monograph
  62. because it presents several new results and ideas of the authors, a further
  63. development and explanation of existing models and because new procedures
  64. for optimization problems are brought together and published in the book
  65. for the first time. As a result of its twofold character the book is
  66. likely to be of interest to graduate and postgraduate students and to
  67. engineers and scientists working in the field of computer science,
  68. optimization, operations research, signal processing, identification or
  69. control theory. The book has been written with engineering in mind, so
  70. it can be used as a textbook for computer science and engineering
  71. courses in artificial neural networks. Furthermore, the book may also
  72. be of interest to researchers working in different areas of science
  73. since a number of new results and concepts have been included which may
  74. be advantageous for further work. Although it is not expected that a
  75. reader interested in this fascinating area will be totally satisfied,
  76. all who seek some basic explanations, ideas, guidance and enlightenment on
  77. matters having to do with analog artificial neural networks, may find
  78. something of value. One can read this book through sequentially but it
  79. is not necessary since each chapter is essentially self-contained with as
  80. few cross references as possible. 
  81. This book is virtually self-contained and there are no prerequisites
  82. for reading it, except for some mathematical background. 
  83. The book consists of nine chapters.
  84. Chapter 1 summarizes the mathematical background which may
  85. be helpful in the study of artificial neural networks and may provide
  86. convenient sources for repetitive reference to standard facts. The
  87. purpose of this chapter is to provide a selected list of mathematical
  88. notations, definitions and results which are used frequently.
  89. Chapter 2 is concerned principally on basic models of artificial neural
  90. networks. Mathematical descriptions of functional block diagrams,
  91. representations and some electronic implementations are described. 
  92. Chapter 3 provides an insight into learning algorithms both
  93. supervising and unsupervising. First, are described various methods
  94. and techniques which enable  to transform unconstrained
  95. optimization problems into equivalent systems of differential
  96. equations. Such systems of differential equations often constitute
  97. basic neural network algorithms to solve specified computational
  98. problems in real time. The second objective in this chapter is to
  99. explain in detail the basic back-propagation algorithm and its
  100. modifications and improvements. The  third objective is to give a
  101. unified view of local learning by a single neuron. A generalized
  102. learning algorithm is described and, as special cases, basic
  103. algorithms are discussed.(E.g. genralized LMS, TLS, Hebbian, Oja's and
  104. perceptron learning rules are discussed).
  105. In Chapter 4 are discussed various general architectures and
  106. VLSI circuit implementations of neuron-like analog processors for
  107. linear and quadratic programming and linear complementarity problems.
  108. In  Chapter 5  various network architectures of simple
  109. neuron-like processors are proposed for the on-line solution of a
  110. system of linear equations with real constant and/or time-variable
  111. coefficients. Various new algorithms and associated network structures
  112. are developed. Special emphasis is given to ill-conditioned
  113. problems. The properties and performance of the networks are
  114. illustrated by computer simulation results.
  115. The objective of  Chapter 6  is to apply and extend the methods
  116. and techniques described in the previous chapters to a large class
  117. of linear matrix algebra problems, for example matrix inversion
  118. and pseudo-inversion, singular value decomposition (SVD), the eigenvalue
  119. problem, QR factorization, solving the Lyapunov and Riccati matrix equation, 
  120. and principal component analysis (PCA).Review of the recent algorithms is
  121. also given.
  122. Chapter 7  deals with "standard" constrained optimization
  123. problems (nonlinear programming) where both the objective functions
  124. and the constraints are generally nonlinear. As a special class of
  125. problems we discuss minimax and nonlinear least absolute value
  126. problems. For each optimization problem considered in this chapter
  127. are developed appropriate computational algorithms and
  128. associated neuron-like optimizer solvers.
  129. In  Chapter 8 are discussed various algorithms and realization
  130. techniques of artificial neural networks for the real-time estimation
  131. of parameters and the reconstruction of signals corrupted by noise
  132. and distorted by parasitic components. Different criteria for the
  133. optimal estimation of signal parameters are discussed. Furthermore,
  134. neural network models for the identification and prediction of the
  135. future are described. Special emphasis is given to blind
  136. identification in the application of separation of independent
  137. source signals. Exemplary computer simulation experiments illustrate
  138. the validity and performance of the described neural network algorithms.
  139. In  Chapter 9 are considered difficult discrete and combinatorial
  140. optimization problems. To illustrate different methods and techniques
  141. many well-known combinatorial problems are discussed, 
  142. e.g. the quadratic assignment problem, the graph partition problem
  143. and the travelling salesman problem. Special emphasis is given to
  144. competitive-based neural networks, the Hopfield analog neural network
  145. and its modification, and to the mean-field annealing approach.
  146. Each chapter concludes with a brief literature survey and a list of
  147. sources for further reading. In addition to the illustrative worked
  148. examples, each chapter is terminated by a set of questions and
  149. problems the aim of which is not only to illustrate but also to extend the
  150. material in the text. Some problems require the use of a PC
  151. and a suitable simulation program, e.g. TUTSIM, PSI or SIMULINK (MATLAB).
  152.  
  153. CONTENTS
  154. I. "Mathematical Preliminaries of Neurocomputing" 1
  155.  
  156.  "Linear Matrix Algebra" 1
  157.  "Matrix Representations and Notations" 1
  158.  "Inner and Outer Product" 3
  159.  "Linear Independence of Vectors" 4
  160.  "Rank of a Matrix" 5
  161.  "Positive and Negative Definite Matrices" 5
  162.  "The Inverse and Pseudoinverse of Matrices" 5
  163.  "Orthogonality, Unitary Matrices, Conjugate Vectors" 7
  164.  "Eigenvalues and Eigenvectors" 7
  165.  "Vector and Matrix Norms" 9
  166.  "Singular Value Decomposition (SVD)" 10
  167.  "Condition Numbers" 12
  168.  "The Kronecker Product" 14
  169.  "Elements of Multivariable Analysis" 15
  170.  "Sets" 15
  171.  "Functions" 16
  172.  "Differentiation of a Scalar Function with Respect to a Vector" 17
  173.  "The Hessian Matrix" 17
  174.  "The Jacobian Matrix" 18
  175.  "Chain Rule" 19
  176.  "Taylor Series Expansion and Mean Value Theorems" 20
  177.  "Lyapunov's Direct Method" 21
  178.  "Unconstrained Optimization Algorithms" 22
  179.  "Necessary and Sufficient Conditions for an Extremum" 22
  180.  "Dynamic Gradient Systems" 23
  181.  "Newton's Methods" 25
  182.  "The Quasi-Newton Methods" 27
  183.  "The Conjugate Gradient Method" 28
  184.  "Constrained Nonlinear Programming Problems" 29
  185.  "Kuhn-Tucker Conditions" 29
  186.  "Lagrange Multipliers and Kuhn-Tucker Conditions
  187.   for Constrained Minimization with Mixed Constraints" 31
  188.  "Duality  the Primal and Dual Optimization Problems" 32
  189.  "                Questions and Problems for Chapter 1" 34
  190.  "References and Sources for Further Reading" 37
  191.  
  192. II. "Architectures and Electronic Implementation of Neural Network Models" 38
  193.  
  194.  "Biological (Real) Neuron" 39
  195.  "Basic Models of Artificial Neurons" 41
  196.  "Basic (Formal) Neuron Model  McCulloch-Pitts Model" 46
  197.  "Fukushima Model of the Neuron" 49
  198.  "Adaline" 51
  199.  "Single-Layer Perceptron" 57
  200.  "The Hopfield Model of the Artificial Neuron" 60
  201.  "The Grossberg Model" 62
  202.  "Generalized Neuron Model" 63
  203.  "Artificial Neuron with Oscillatory Output" 64
  204.  "Discrete-Time Models of Artificial Neurons" 65
  205.  "Artificial Neural Network Models" 67
  206.  "Basic Features and Classification of ANNs" 67
  207.  "Feedforward Multi-Layer Perceptron" 71
  208.  "Architecture of the Three-Layer Perceptron" 71
  209.  "The Hopfield Artificial Neural Network and its Modifications" 74
  210.  "Analog Models" 74
  211.  "Discrete-Time Hopfield Models of ANNs" 84
  212.  "                Questions and Problems for Chapter 2" 88
  213.  "References and Sources for Further Reading" 88
  214.  
  215. III. "Unconstrained Optimization and Learning Algorithms" 92
  216.  
  217.  "The Use of Systems of Ordinary Differential Equations in 
  218.   Unconstrained Optimization Problems Trajectory-Following Methods" 93
  219.   "Basic Iterative Gradient Descent Algorithms" 93
  220.  "Continuous-Time Realization of Iterative Algorithms" 95
  221.  "Basic Gradient Systems" 97
  222.  "Continuous-Time Algorithm with Prespecified Convergence Speed" 100
  223.  "Unconstrained Optimization by Applying a System of
  224.   Second-Order Differential Equations" 106
  225.  "Branin's Method" 108
  226.  "Optimization Networks Using a Combination of Deterministic and Random Search 
  227.  - Stochastic Gradient Algorithms" 111
  228.  "Boltzmann Machine and Simulated Annealing" 117
  229.  "Mean-Field Annealing Algorithm" 121
  230.  "Back-Propagation Learning Algorithms" 126
  231.  "Learning of the Single Layer Perceptron" 126
  232.  "Standard Back-Propagation Algorithm for the Multilayer Perceptron" 131
  233.  "Back-Propagation Algorithm with Momentum Updating" 136
  234.  "Batch Learning Algorithm" 137
  235.  "Back-Propagation Algorithm with Adaptive Learning Rates:
  236.   the Delta-Bar-Delta Algorithm" 139
  237.  "Back-Propagation Algorithm with a Variable Number of Neurons 
  238.   in the Hidden Layers" 140
  239.  "Back-Propagation Algorithms with Non-Euclidean Error Signals" 142
  240.  "Generalized Learning Algorithm for a Single Neuron" 146
  241.  "Generalized LMS Learning Rule" 148
  242.  "Potential Learning Rule" 152
  243.  "Correlation Learning Rule" 152
  244.  "Hebbian Learning Rule" 152
  245.  "Oja's Learning Rule" 153
  246.  "Standard Perceptron Learning Rule" 154
  247.  "Generalized Perceptron Learning Rule" 154
  248.  "                Questions and Problems for Chapter 3" 155
  249.  "References and Sources for Further Reading" 157
  250.  
  251.  IV. "Neural Networks for Linear, Quadratic Programming 
  252.        and Linear Complementarity Problems" 161
  253.  
  254.  "Formulations of the Problems" 162
  255.  "Linear Programming (LP)" 162
  256.  "Quadratic Programming (QP)" 166
  257.  "Linear Complementarity Problems (LCP)" 168
  258.  "Neural Networks for Linear Programming (LP) Problems" 174
  259.  "Linear Programming with Inequality Constraints" 174
  260.  "Linear Programming Problem in Standard Form" 183
  261.  "Linear Programming with Bounded Design Variables" 186
  262.  "Algorithm for Simultaneously Solving Primal and Dual Linear
  263.   Programming Problems" 191
  264.  "Transportation Problem" 193
  265.  "Neural Networks for Convex Quadratic Programming Problems" 194
  266.  "Equality Constrained QP Problems" 196
  267.  "Inequality Constrained QP Problem" 200
  268.  "Mixed Equality- and Inequality-Constrained QP Problem" 204
  269.  "Neural Networks for Linear Complementarity Problems" 207
  270.  "                Questions and Problems for Chapter 4" 215
  271.  "References and Sources for Further Reading" 220
  272.  
  273.  V. "A Neural Network Approach to the On-Line Solution of a
  274.      System of Linear Algebraic Equations and Related Problems" 223
  275.  
  276.  "Formulation of the Problem for Systems of Linear Equations" 224
  277.  "Least-Squares Problems" 226
  278.  "Basic Features of the Linear Least-Squares Solution
  279.   of a System of Linear Equations" 226
  280.  "Basic Circuit Structure - Ordinary Least-Squares Criterion" 228
  281.  "Robust Circuit Structure by Using the Iteratively - 
  282.   Reweighted Least-Squares Criterion" 231
  283.  "Special Cases with Simpler Architectures" 233
  284.  "Improved Circuit Structures for Ill-Conditioned Problems" 238
  285.  "Preconditioning" 239
  286.  "Regularization" 240
  287.  "Augmented Lagrangian with Regularization" 243
  288.  "Iterative Algorithms and Discrete-Time Circuit Models" 249
  289.  "Minimax  Solution of Overdetermined Systems of Linear Equations" 257
  290.  "Neural Network Architecture by Using Quadratic Penalty Function Terms" 258
  291.  "Neural Network Architecture by Employing the Exact Penalty Method" 262
  292.  "Neural Network Architecture by Using the Augmented
  293.   Lagrange Multiplier Method" 264
  294.  "Neural Network Model by Using the Winner-Take-All Subnetwork" 265
  295.  "Least Absolute Deviations  Solution of Systems of Linear Equations" 268
  296.  "Neural Network Architecture by Using the Linear Programming Approach" 269
  297.  "Neural Network Architectures by Using a Smooth Approximation 
  298.   and the Augmented Lagrange Technique" 272
  299.  "Neural Network Model by Using the Inhibition Principle" 274
  300.  "Realizations of Four-Quadrant Voltage Dividers" 279
  301.  "Neural Networks for Discrete Hartley and Fourier Transforms" 282
  302.  "Learning Algorithm for Solving Large (Partitioned) Linear Systems" 285
  303.  "Learning Algorithms for the Total Least Squares Problem" 294  
  304. "                Questions and Problems for Chapter 5" 288
  305.  "References and Sources for Further Reading" 293
  306.  
  307.  VI. "Neural Networks for Matrix Algebra Problems" 297
  308.  
  309.  "Matrix Inversion" 298
  310.  "LU Decomposition" 304
  311.  "QR Factorization" 307
  312.  "Spectral Factorization - Symmetric Eigenvalue Problem" 311
  313.  "Singular Value Decomposition (SVD)" 320
  314.  "Neural Networks for Solving Generalized Matrix Equations 
  315.   Especially Lyapunov's Equation" 326
  316.  
  317.  "Neural Network Learning Algorithms for Adaptive Estimation 
  318.   of Principal Components" 329
  319.  "Estimation of the First Principal Component- 
  320.   Normalized Hebbian Learning Algorithm" 332
  321. "Estimation of Several Principal Components - Generalized Hebbian Algorithm" 335
  322.  "Linear Feature Extraction by Using Normalized Hebbian
  323.   and Anti-Hebbian Learning Rules" 338
  324.  "Learning Algorithm for Estimation of the Constrained Principal Components" 340
  325.  "                Questions and Problems for Chapter 6" 342
  326.  "References and Sources for Further Reading" 344
  327.  
  328. VII. "Neural Networks for Continuous, Nonlinear, Constrained
  329.       Optimization Problems"    347
  330.  
  331. "Formulation of the Constrained Problems and their Characteristics" 348
  332.  "Constrained Optimization Problems with Simple Bounds" 351
  333.  "The Exterior Penalty Function Methods" 352
  334.  "Equality-Constrained Problems" 353
  335.  "Neural Networks for the Inequality-Constrained Minimization Problem" 355
  336.  "Barrier Function Methods" 362
  337.  "The Ordinary Lagrange Multiplier Method" 364
  338.  "The Augmented Lagrange Multiplier Methods" 366
  339.  "Equality Constrained Problem" 367
  340.  "Inequality-Constrained Problems" 369
  341.  "The General Constrained Optimization Problem with Mixed Constraints" 373
  342.  "Two-Sided Inequality-Constrained Optimization Problems" 373
  343.  "The Least Absolute Deviations ( L1-Norm) Optimization Problems" 377
  344.  "Minimax Optimization Problems" 385
  345.  "Multicriterion Optimization Problems" 392
  346.  "Neural Networks for Optimization Problems with Linear constraints 
  347. "                Questions and Problems for Chapter 7" 396
  348.  "References and Sources for Further Reading" 402
  349.  
  350.  VIII. "Neural Networks for Estimation, Identification and Prediction" 406
  351.   
  352.    "On-Line Estimation of the Parameters of a Sinewave Distorted by
  353.     a DC Exponential Signal and Corrupted by Noise" 406
  354.   "Formulation of the Problem" 406
  355.     "Robust Estimation of the Parameters Using the Iteratively Reweighted
  356.      Least-Squares Criterion" 409
  357.    "Least Absolute Deviation  Estimation Problem" 411
  358.     "Minimax  Estimation Problem" 414
  359.     "Signal Decomposition and the Fourier Network" 416
  360.    "Decomposition of a Continuously Measured Signal by a Set of   
  361.     Orthogonal Basis Functions" 416
  362.  "Fourier Network" 420
  363.  "Linear Regression and Identification of Linear Systems" 423
  364.  "Linear Regression" 423
  365.  "Discrete-Time Linear Models for System Identification" 427
  366.  "Time Series Prediction and Nonlinear System Identification" 430
  367.  "Time Series Forecasting Using Neural Networks Approach" 431
  368.  "Nonlinear System Identification" 441
  369.  "Blind Identification of Independent Source Signals" 442
  370.  "Formulation of the Problem" 442
  371.  "Basic Structures of a Two-Cell Neural Network" 445
  372.  "Learning Algorithm" 448
  373.  "General Structure of a Neural Network" 450
  374.  "Computer Simulation Results" 452
  375.  "                Questions and Problems for Chapter 8" 454
  376.  "References and Sources for Further Reading" 456
  377.  
  378.  IX."Neural Networks for Discrete and Combinatorial Optimization Problems" 462
  379.  
  380.  "Energy Functions for Combinatorial Optimization Problems" 463
  381.  "Equations of Motion for Combinatorial Optimization Problems" 466
  382.  "Quadratic Zero-One Programming Problem" 476
  383.  "The Quadratic Assignment Problem" 479
  384.  "Graph Bipartition Problem" 482
  385.  "Graph Partition Problem" 485
  386.  "The Traveling Salesman Problem" 488
  387.  "                Questions and Problems for Chapter 9" 493
  388.  "References and Sources for Further Reading" 496
  389.  
  390. Appendix A" 
  391.  "                List of Major Symbols Used" 500
  392. Appendix B" 
  393.  "                Table of Basic Functional Building-Blocks" 502
  394.  "                Table of Symbols of Logic Gates and Flip-Flops" 503
  395. Subject Index 505
  396. John Wiley ISBN 0 471 93010 5 524pp April 1993 $60.50
  397.  Teubner Verlag ISBN 3 519 06444 8
  398.  
  399.  
  400.  
  401.  
  402.