home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #16 / NN_1992_16.iso / spool / bit / listserv / statl / 1234 < prev    next >
Encoding:
Text File  |  1992-07-31  |  5.0 KB  |  94 lines

  1. Comments: Gated by NETNEWS@AUVM.AMERICAN.EDU
  2. Path: sparky!uunet!paladin.american.edu!auvm!CORNELLC.BITNET!TCD
  3. Message-ID: <STAT-L%92073115220242@VM1.MCGILL.CA>
  4. Newsgroups: bit.listserv.stat-l
  5. Date:         Fri, 31 Jul 1992 14:37:46 EDT
  6. Sender:       "STATISTICAL CONSULTING" <STAT-L@MCGILL1.BITNET>
  7. From:         Tim Dorcey <TCD@CORNELLC.BITNET>
  8. Subject:      Interaction effects in regression
  9. Lines: 83
  10.  
  11. A few more comments to add to the discussion on whether "main effects"
  12. should be deleted when the interaction in a regression model is
  13. significant...
  14.  
  15. I find it helpful to keep in mind that, fundamentally, regression
  16. models are about prediction, i.e., how much can I expect the response
  17. variable to change as changes are made in the predictors.  Typically,
  18. a regression model is parameterized in such a way that the parameter
  19. estimates have an immediate connection to this question.  For example,
  20. suppose we have the linear model:
  21. E[y|x,z] = a + b*x + c*z
  22. If I then ask, what would happen if I increased x by 1 unit while holding
  23. z constant, I can compute:
  24. E[y|x+1,z] = a + b*(x+1) + c*z
  25. and then subtract to get:
  26. E[y|x+1,z] - E[y|x,z] = b
  27. This is very nice because a change in x has the same effect regardless of
  28. the actual values of x & z.  Thus, my question has a simple answer, and a
  29. test of the hypothesis that b=0 has a direct connection to the issue of
  30. prediction.  But, now suppose I ask this same question when the model is:
  31. E[y|x,z] = a + b*x + c*z + d*x*z
  32. I compute:
  33. E[y|x+1,z] = a + b*(x+1) + c*z + d*(x+1)*z
  34. and then subtract to get:
  35. E[y|x+1,z] - E[y|x,z] = b + d*z
  36. Evidentally, the answer now depends upon the value of z.  E.g., when
  37. z = -b/d, x has no effect on the response.  Furthermore, a test of the
  38. hypothesis that b = 0, now has only narrow implications for prediction.
  39. In particular, if b = 0, it simply means that a change in x has no
  40. effect on y when z = 0.  I can imagine situations where this conclusion
  41. might be interesting, but that would be the exception rather than the
  42. rule (clearly, it would have to be a situation where the origin of z
  43. was theoretically meaningful).
  44.       So, to get back to the original question, if b is not significantly
  45. different from 0, should we force it to be zero (i.e., delete x from
  46. the model)?  The logic in forcing a coefficient to be 0 (or any other
  47. fixed value) is that the coefficients of a model with fewer parameters can
  48. be estimated with greater precision.  The main drawback is that if the
  49. true coefficient is different from the value that we fixed it at, then
  50. the other estimates will be biased.  Furthermore, if the decision to
  51. omit a variable is based upon the same set of data that the reduced model
  52. is then fit to, none of the distributional results (e.g., t-tests) are
  53. valid.  I.e., these tests are based on the assumption that we chose our
  54. predictors without looking at the data.  It is interesting to consider
  55. the "test-and-refit" approach in the context of forcing parameters to
  56. be some other value than 0.  Suppose we adopted the following strategy:
  57. 1) fit an initial model   E[y|x,z] = a + b*x + c*z
  58. 2) test the hypothesis that:  b = 2
  59. 3) if b is not significantly different than 2, force it to be 2 and
  60.    refit the model to get better estimates of a and c.
  61. I suspect that many who are quite comfortable omitting non-significant
  62. variables from regression models would be skeptical of this approach,
  63. even though, in the context of linear regression theory, it is absolutely
  64. equivalent.  So, what is it about 0 that is special and how does that
  65. relate to the original question about main effects and interactions?
  66.  
  67. 1)  Fixing a coefficient to 0 means that we don't even need to know the
  68. value of the corresponding variable, so we end up with a more parsimonious
  69. model.  In the case, E[y|x,z] = a + b*x + c*z + d*x*z,
  70. however, regardless of whether we set b and/or c to 0, we still need to
  71. know the values of x and z.  The resulting model is no more parsimonious.
  72.  
  73. 2)  On an a priori basis, it seems that "this variable has no effect"
  74. is a more plausible conclusion than "this variable has a regression
  75. coefficient of 2".  As discussed previously, however, in the interaction
  76. model, "b = 0" is equivalent to "this variable has no effect when z=0".
  77. Unless there were prior reasons to expect that particular result, "b=0"
  78. remains on the same footing as "b=2".
  79.  
  80. Therefore, my conclusion would be to leave the main effects in the model,
  81. except perhaps under the special circumstance where it was expected that
  82. "the effect of x when z=0" might be 0.  Even then, I would personally
  83. keep the full model, because I don't think the increased precision of
  84. parameter estimates is worth the risk of introducing bias.  The exercise
  85. above was only meant to show that even if you buy the general idea of
  86. omitting non-significant variables from regression models, the
  87. interaction model is different.
  88.  
  89. Tim Dorcey                        BITNET:   TCD@CORNELLC
  90. Statistical Software Consultant   Internet: TCD@CORNELLC.CIT.CORNELL.EDU
  91. Cornell Information Technologies  Phone:    (607) 255-5715
  92. Cornell University
  93. Ithaca, NY  14853
  94.