home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #16 / NN_1992_16.iso / spool / sci / math / numanal / 2297 < prev    next >
Encoding:
Internet Message Format  |  1992-07-26  |  2.2 KB

  1. Xref: sparky sci.math.num-analysis:2297 comp.lang.c++:11580
  2. Path: sparky!uunet!sun-barr!ames!agate!dog.ee.lbl.gov!network.ucsd.edu!lyapunov.ucsd.edu!mbk
  3. From: mbk@lyapunov.ucsd.edu (Matt Kennel)
  4. Newsgroups: sci.math.num-analysis,comp.lang.c++
  5. Subject: Re: SUMMARY: Automatic differentiation
  6. Date: 26 Jul 1992 23:39:05 GMT
  7. Organization: Institute For Nonlinear Science, UCSD
  8. Lines: 45
  9. Message-ID: <14vd2pINNa42@network.ucsd.edu>
  10. References: <l75d3fINNmjl@almaak.usc.edu>
  11. NNTP-Posting-Host: lyapunov.ucsd.edu
  12. X-Newsreader: Tin 1.1 PL3
  13.  
  14. ajayshah@almaak.usc.edu (Ajay Shah) writes:
  15. : I think this strategy is going to revolutionise the way we actually do
  16. : nonlinear maximisations.  I think it's going to obsolete algorithms
  17. : like the BFGS and conjugate gradients etc. because with this in hand
  18. : we get exact hessians and higher.
  19.  
  20. In most of my problems, the number of variables I'm minimizing over is
  21. quite large, similarly for neural networks.  Don't "BFGS" and Hessian
  22. methods require O(N^2) storage space, at least, in contrast to 
  23. O(N) conjugate gradient.  I don't know what the speed is, but when
  24. N=200 say, the internal matrix multipies that are normally considered trivial
  25. next to function evaluations might not be so trivial.
  26.  
  27. :  We get large gains in efficiency by
  28. : using higher derivatives (see the Kalaba-Tisher paper for example).
  29.  
  30. If you have something other than a simple quadratic minimum does this
  31. really do that much good?
  32.  
  33. : We will endup replacing the status quo of libraries like NPSOL by
  34. : something totally different, and the bonus is that the replacement is
  35. : not in fortrash!  I like it!
  36.  
  37. Will C++ be able to do:
  38.     A = B*C + D
  39.  
  40. with A,C,D vectors, and B a matrix  without any copying and creation
  41. of intermediate variables?  (i.e. see Matrix * Vector--- create a new
  42. result vector.  Do + operation on 2 vectors, make another new vector.
  43. Now do the "=" operation and copy it into A)
  44.  
  45. Perhaps the problem is that C++ let's you define overloaded operators to
  46. do anything, without regard to the normal "rules of algebra", so that it
  47. must assume less.
  48. That's one of the reason's I'm not using it now.
  49.  
  50. :         -ans.
  51. : -- 
  52. : Ajay Shah, (213)749-8133, ajayshah@usc.edu
  53.  
  54. --
  55. -Matt Kennel          mbk@inls1.ucsd.edu
  56. -Institute for Nonlinear Science, University of California, San Diego
  57.