home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #20 / NN_1992_20.iso / spool / sci / math / stat / 1863 < prev    next >
Encoding:
Internet Message Format  |  1992-09-13  |  2.9 KB

  1. Path: sparky!uunet!gatech!purdue!mentor.cc.purdue.edu!pop.stat.purdue.edu!hrubin
  2. From: hrubin@pop.stat.purdue.edu (Herman Rubin)
  3. Newsgroups: sci.math.stat
  4. Subject: Re: Testing for Normality
  5. Message-ID: <BuJ7v8.EKM@mentor.cc.purdue.edu>
  6. Date: 13 Sep 92 19:37:55 GMT
  7. References: <1992Sep10.124312.4391@cognos.com> <11SEP199206534334@amarna.gsfc.nasa.gov> <WVENABLE.92Sep12234508@algona.stats.adelaide.edu.au>
  8. Sender: news@mentor.cc.purdue.edu (USENET News)
  9. Organization: Purdue University Statistics Department
  10. Lines: 45
  11.  
  12. In article <WVENABLE.92Sep12234508@algona.stats.adelaide.edu.au> wvenable@algona.stats.adelaide.edu.au (Bill Venables) writes:
  13. >>>>>> "Charles" == Charles Packer <packer@amarna.gsfc.nasa.gov> writes:
  14.  
  15. >Charles> Why not use a traditional chi-square test?
  16.  
  17. >I can think of two possible reasons:
  18.  
  19. >1. It requires an arbitrary partition of the range into panels, *before*
  20. >   the sample comes to hand.  (In fact it really does not test normality as
  21. >   such, but rather that the grouped sample distribution agrees with a
  22. >   similarly grouped normal.)  Arbitrariness always comes at some cost.
  23.  
  24. >2. In seeking to get some power against a very wide class of alternatives
  25. >   it manages only to achieve low power against any subclass, including the
  26. >   subclass of practically important alternatives.  In this sense it is not
  27. >   well focused enough.
  28.  
  29. >[BTW I would be interested in a Bayesian reaction to this question.  It always
  30. >seemed to me that tests of fit could be rather an embarrassment to a Bayesian.]
  31.  
  32. Even from the classical standpoint, the traditional chi-squared test is 
  33. wrong.  The distribution of the chi-squared statistic should not have the
  34. full reduction in degrees of freedom for estimated parameters.  This was
  35. proved by Chernoff and Lehmann in 1953 for fixed partitions, and by A. R. Roy
  36. in his dissertation under me in 1954 for data-defined partitions; the theory
  37. using "good" estimators under the null hypothesis shows that it does not 
  38. matter how the partitions are defined.  Some of the papers of D. H. Moore
  39. about 1970 provide a readable summary.
  40.  
  41. The power is VERY low against any reasonable alternative.  The reason for
  42. this is that the test fails to consider that adjacent intervals are likely
  43. to differ from the null in the same manner.  Such tests as the Kolmogoroff-
  44. Smirnoff or Kuiper do a far better job.
  45.  
  46. For a discussion of testing from a parametric robust Bayesian viewpoint, 
  47. readers may wish to look at my paper with Sethuraman in Sankhya, 1965, on
  48. the subject.  For at least one "real" problem, that of looking for concentrated
  49. contamination to a distribution, this can be approximately carried out in the
  50. infinite-dimensional version.  But one thing to keep in mind--the higher the
  51. dimension, the more important the assumptions.
  52. -- 
  53. Herman Rubin, Dept. of Statistics, Purdue Univ., West Lafayette IN47907-1399
  54. Phone: (317)494-6054
  55. hrubin@pop.stat.purdue.edu (Internet, bitnet)  
  56. {purdue,pur-ee}!pop.stat!hrubin(UUCP)
  57.