home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #18 / NN_1992_18.iso / spool / sci / math / stat / 1726 < prev    next >
Encoding:
Text File  |  1992-08-21  |  4.2 KB  |  104 lines

  1. Newsgroups: sci.math.stat
  2. Path: sparky!uunet!caen!news.cs.indiana.edu!uceng.uc.edu!juber
  3. From: juber@uceng.UC.EDU (james uber)
  4. Subject: Re: linear covariance estimate for max likelihood
  5. Message-ID: <1992Aug21.190537.23867@uceng.UC.EDU>
  6. Keywords: parameter estimation, maximum likelihood, covariance estimate
  7. Organization: College of Engineering, University of Cincinnati
  8. References: <1992Aug20.142353.6297@uceng.UC.EDU> <thompson.714414133@daphne.socsci.umn.edu>
  9. Date: Fri, 21 Aug 1992 19:05:37 GMT
  10. Lines: 92
  11.  
  12. In article <thompson.714414133@daphne.socsci.umn.edu> thompson@atlas.socsci.umn.edu writes:
  13. >juber@uceng.UC.EDU (james uber) writes:
  14. >
  15. >>I obtain parameter estimates via maximum likelihood where
  16. >>my model is in the standard reduced form y = f(p), y are the
  17. >>data and p are the parameters. I assume that the distribution
  18. >>of the model + measurement errors is normal with zero mean
  19. >>and known covariance matrix Ve. Thus i am solving the optimization
  20. >>problem:
  21. >
  22. >>    min Tr(y - f(p))Inv(Ve)(y - f(p))
  23. >>         p
  24. >
  25. >[rest of post deleted]
  26. >
  27. >I do not understand the question.  If y = f(p) (where f is presumably
  28. >a known and fixed function of the parameters) and y is observed then
  29. >there is no measurement error.  Perhaps you meant y = f(p) + e where e
  30. >is a vector of measurement errors.  (This seems implicit in your
  31. >description of the nonlinear least squares procedure.)
  32. >
  33. >But you also refer to "model errors".  What are these and how do they
  34. >fit in?  If the model is really
  35. >
  36. >              y = f(p) + <error>
  37. >
  38. >and f(p) is known (up to the parameters p) and fixed, then
  39. >Var(y) = Var(<error>) regardless of the source of the errors.
  40. >
  41. >Please clarify.
  42.  
  43. Thanks for replying to my post. That was my fault for being too 
  44. hasty. This is what i really meant (now given a second chance).
  45. The _measurement_ errors are defined as:
  46.  
  47.         e1 = y - y*
  48.  
  49. where y are the data and y* are the (unknown) true values. Now the
  50. _model_ errors are defined as:
  51.  
  52.         y* = f(p*) + e2
  53.  
  54. where p* are the "true" parameter values. That is, even given the
  55. measurements without error and the true parameters, there still is
  56. some error due to faults in the model theory, inaccuracy in solution
  57. of f(p), and the like. Combining these two equations gets me back
  58. to where i should have started in the beginning:
  59.  
  60.         y - e1 = f(p*) + e2
  61.         y = f(p*) + e1 + e2
  62.         y = f(p*) + E
  63.  
  64. where E = e1 + e2 is the combined model + measurment errors. Thus
  65. the relevant distribution to use in estimation of p via maximum 
  66. likelihood is the distribution of E, which i previously assumed
  67. was a normal distribution with known covariance Ve. My
  68. understanding is that, while it is often possible to specify the 
  69. distribution of e1 in a logical way (normal and i.i.d., for example),
  70. the same can not necessarily be said for e2. Hence the significance
  71. of knowing that both exist. I realize that the parameters of the
  72. distribution of E can be estimated, under certain assumptions
  73. about their form.
  74.  
  75. Now, like you said, if f(p) is known (not random), then the
  76. variability in y comes from the variability in E. This is where my
  77. brain start to hurt, `cause i think to myself, "hey, wait a minute,
  78. we're talking about the variability in the _data_, which are the
  79. _measurement_ errors." Thus i get confused when i look at 
  80. derivations of the covariance matrix of the parameter estimates
  81. that say things like, "the maximum likelihood objective function
  82. depends on the _data_," or "if we vary the _data_ slightly,
  83. replacing y by y + dy, this would cause the minimum (of the 
  84. log likelihood function) to shift from p* to p* + dp*." I just
  85. can't get around thinking of the variability in my data as the
  86. measurement (e1) errors! So, this leads to my original question
  87. of, in the derivation of the p covariance estimate, when we talk
  88. of the variability in p being caused by the variability in y, 
  89. do we mean variability caused by e1 or by E? I am fairly certain 
  90. that it must be E, but applied statistics is a tough business to 
  91. part-timers, and i'm just not sure.
  92.  
  93. Again, thanks for taking interest in my question. I hope that,
  94. in the least, my ignorance might now be clear.
  95.  
  96. jim uber
  97. dept. of civil & environmental eng.
  98. univ. of cincinnati
  99. juber@uceng.uc.edu 
  100. -- 
  101. --
  102. james uber
  103. juber@uceng.uc.edu
  104.