home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #18 / NN_1992_18.iso / spool / sci / math / stat / 1728 < prev    next >
Encoding:
Text File  |  1992-08-22  |  6.8 KB  |  149 lines

  1. Newsgroups: sci.math.stat
  2. Path: sparky!uunet!cis.ohio-state.edu!pacific.mps.ohio-state.edu!linac!att!news.cs.indiana.edu!umn.edu!thompson
  3. From: thompson@atlas.socsci.umn.edu (T. Scott Thompson)
  4. Subject: Re: linear covariance estimate for max likelihood
  5. Message-ID: <thompson.714503133@kiyotaki.econ.umn.edu>
  6. Keywords: parameter estimation, maximum likelihood, covariance estimate
  7. Sender: news@news2.cis.umn.edu (Usenet News Administration)
  8. Nntp-Posting-Host: kiyotaki.econ.umn.edu
  9. Reply-To: thompson@atlas.socsci.umn.edu
  10. Organization: Economics Department, University of Minnesota
  11. References: <1992Aug20.142353.6297@uceng.UC.EDU> <thompson.714414133@daphne.socsci.umn.edu> <1992Aug21.190537.23867@uceng.UC.EDU>
  12. Date: Sat, 22 Aug 1992 17:05:33 GMT
  13. Lines: 134
  14.  
  15. juber@uceng.UC.EDU (james uber) writes:
  16.  
  17.  
  18. >In article <thompson.714414133@daphne.socsci.umn.edu> thompson@atlas.socsci.umn.edu writes:
  19. >>juber@uceng.UC.EDU (james uber) writes:
  20. >>
  21. >>>I obtain parameter estimates via maximum likelihood where
  22. >>>my model is in the standard reduced form y = f(p), y are the
  23. >>>data and p are the parameters. I assume that the distribution
  24. >>>of the model + measurement errors is normal with zero mean
  25. >>>and known covariance matrix Ve. Thus i am solving the optimization
  26. >>>problem:
  27. >>
  28. >>>    min Tr(y - f(p))Inv(Ve)(y - f(p))
  29. >>>         p
  30. >>
  31. [stuff deleted]
  32. >Thanks for replying to my post. That was my fault for being too 
  33. >hasty. This is what i really meant (now given a second chance).
  34. >The _measurement_ errors are defined as:
  35.  
  36. >        e1 = y - y*
  37.  
  38. >where y are the data and y* are the (unknown) true values. Now the
  39. >_model_ errors are defined as:
  40.  
  41. >        y* = f(p*) + e2
  42.  
  43. >where p* are the "true" parameter values. That is, even given the
  44. >measurements without error and the true parameters, there still is
  45. >some error due to faults in the model theory, inaccuracy in solution
  46. >of f(p), and the like. Combining these two equations gets me back
  47. >to where i should have started in the beginning:
  48.  
  49. >        y - e1 = f(p*) + e2
  50. >        y = f(p*) + e1 + e2
  51. >        y = f(p*) + E
  52.  
  53. >where E = e1 + e2 is the combined model + measurment errors. Thus
  54. >the relevant distribution to use in estimation of p via maximum 
  55. >likelihood is the distribution of E, which i previously assumed
  56. >was a normal distribution with known covariance Ve. My
  57. >understanding is that, while it is often possible to specify the 
  58. >distribution of e1 in a logical way (normal and i.i.d., for example),
  59. >the same can not necessarily be said for e2. Hence the significance
  60. >of knowing that both exist. I realize that the parameters of the
  61. >distribution of E can be estimated, under certain assumptions
  62. >about their form.
  63.  
  64. >Now, like you said, if f(p) is known (not random), then the
  65. >variability in y comes from the variability in E. This is where my
  66. >brain start to hurt, `cause i think to myself, "hey, wait a minute,
  67. >we're talking about the variability in the _data_, which are the
  68. >_measurement_ errors." Thus i get confused when i look at 
  69. >derivations of the covariance matrix of the parameter estimates
  70. >that say things like, "the maximum likelihood objective function
  71. >depends on the _data_," or "if we vary the _data_ slightly,
  72. >replacing y by y + dy, this would cause the minimum (of the 
  73. >log likelihood function) to shift from p* to p* + dp*." I just
  74. >can't get around thinking of the variability in my data as the
  75. >measurement (e1) errors! So, this leads to my original question
  76. >of, in the derivation of the p covariance estimate, when we talk
  77. >of the variability in p being caused by the variability in y, 
  78. >do we mean variability caused by e1 or by E? I am fairly certain 
  79. >that it must be E, but applied statistics is a tough business to 
  80. >part-timers, and i'm just not sure.
  81.  
  82. First, a warning.  In your original post, and in the paragraph above,
  83. you use p* as the ML estimate, while in the first part of your
  84. clarification you use p* to represent the true parameter values.  Bad
  85. idea.  I will use p* to represent the "truth" and p^ to represent the
  86. MLE.
  87.  
  88. In order to discuss "the" variabilility in p^ we must have some notion
  89. of what is the relevant probability space.  That is, we must specify
  90. the distribution of the objects from which p^ is computed.
  91. Specifically, we must commit to whether or not e2 (the "model" error)
  92. is fixed or not.  Equivalently, we must think about the sources of
  93. variability in the data, and decide which ones we are interested in.
  94.  
  95. Scenario 1.  If we take the view that e1 and e2 are both variable then
  96.  
  97.          var(y) = var( f(p*) + e1 + e2 ) = var( e1 + e2 ) = var(E)
  98.  
  99. (assuming here and throughout that f(p*) is fixed).  Clearly the
  100. distinction between e1 and e2 is not relevant for determining the
  101. variablity in p^ in this scenario since they always enter as a sum.
  102. All that matters is Var(E).
  103.  
  104. I think your confusion arises because you (quite reasonably) see a
  105. fundamental distinction between e1 and e2 that makes Scenario 1
  106. unpalatable.  I suspect that you are thinking about e1 (measurement
  107. error) that is variable across repetitions of the experiment, while e2
  108. (model error) remains fixed.  This is reasonable if e2 in fact arises
  109. because of imperfections in our ability to write down the correct form
  110. for f(p), rather than because of some kind of noise in the
  111. instruments, for example.
  112.  
  113. Scenario 2.  Assume e2 is fixed (but unknown) across repeated
  114. experiments.  In this case you can calculate the variability in the
  115. data as
  116.  
  117.         var(y) = var( f(p*) + e1 + e2 ) = var(e1)
  118.  
  119. because now (in repeated experiments using the same imperfect model)
  120. the model errors, like f(p*), are also fixed.  (This is essentially
  121. the same as we would get by working with conditional (on e2)
  122. distributions in Scenario 1.)
  123.  
  124. Unfortunately, if e2 is fixed and unknown, the model is not
  125. identified, and you can't estimate p*.  In particular, the MLE
  126. estimator p^ that solves the original minimization problem generally
  127. is not a consistent estimator of p*.  In this case, all of the usual
  128. formulas for discussing the variablity of p^ either (a) break down
  129. and/or (b) are no longer of much relevance.
  130.  
  131. In other words, you can't learn much about p* unless you know quite a
  132. bit about what you don't know about the model.
  133.  
  134. Sounds like a Catch-22?  You bet.  The bottom line of most statistical
  135. inference problems is that you have to know something already in order
  136. to learn something else.  If you allow for fixed model errors such as
  137. e2, but are unwilling to say anything about their properties then you
  138. are really saying that you don't know anything at all about f(p*).
  139.  
  140. Hope this helps.
  141. -- 
  142. T. Scott Thompson              email:  thompson@atlas.socsci.umn.edu
  143. Department of Economics        phone:  (612) 625-0119
  144. University of Minnesota        fax:    (612) 624-0209
  145. --
  146. T. Scott Thompson              email:  thompson@atlas.socsci.umn.edu
  147. Department of Economics        phone:  (612) 625-0119
  148. University of Minnesota        fax:    (612) 624-0209
  149.