home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #16 / NN_1992_16.iso / spool / bit / listserv / statl / 1200 < prev    next >
Encoding:
Text File  |  1992-07-25  |  26.9 KB  |  614 lines

  1. Comments: Gated by NETNEWS@AUVM.AMERICAN.EDU
  2. Path: sparky!uunet!paladin.american.edu!auvm!PACEVM.BITNET!ELLEN
  3. Message-ID: <STAT-L%92072601201962@VM1.MCGILL.CA>
  4. Newsgroups: bit.listserv.stat-l
  5. Date:         Sun, 26 Jul 1992 01:16:18 EDT
  6. Sender:       "STATISTICAL CONSULTING" <STAT-L@MCGILL1.BITNET>
  7. From:         arthur s ellen <ELLEN@PACEVM.BITNET>
  8. Subject:      Summary of One-Tail Chi Square Discussion
  9. Lines: 603
  10.  
  11.                    ONE TAIL CHI SQUARE SUMMARY
  12.  
  13. I am summarizing the responses that I received regarding the following
  14. question. A question that I answered but one that had given me some
  15. second thoughts.
  16.  
  17.  
  18. A local clinician asked me if he could treat a 2X2 chi square like a
  19. one-tailed t-test and just double the alpha to 0.10 rather than 0.05
  20. since he had a directional hypothesis. He reasoned by analogy from a
  21. one-tailed t-test.
  22.  
  23. Regarding tailedness of chi-square; my explanation went that:
  24. We don't get positive or negative values for chi square, only positive
  25. values, so we are only dealing with the right side of the distribution.
  26.  
  27. ========================================================================
  28.  #01
  29. Date:         Mon, 15 Jun 1992 13:28:58 -0500
  30.  
  31. From:         David.Howell@UVM.EDU
  32.  
  33.         One reference on this issue is Howell, D.C. (1992) Statistical
  34. Methods for Psychology (3rd edition), PWS-Kent. p. 143.
  35.         The definition of one- vs. two-tailed tests with Chi-square becomes
  36. confusing for the same reason that it does with F. The test IS one-tailed
  37. in the sense that we normally only reject for the right tail of the
  38. distribution. (As opposed to a t test where we reject for large positive or
  39. large negative values of t.)
  40.         In calculating Chi-square we square (Observed - expected), which
  41. effectively ignores the sign of the difference. Therefore the test is
  42. (generally) two-tailed (with 1 df) because we will reject if too few males
  43. or two many males (as opposed to females) fall in one category. With more
  44. than two categories the test becomes many-tailed. There have been
  45. suggestions for making the test one-tailed (in the sense of "tailedness"
  46. used in this paragraph) by only running the test if the results are
  47. directionally in line with the prediction, but I have never actually seen
  48. that done.
  49.  
  50. &-&-&-&-&-&-&-&-&-&-&-&-&-&-&
  51. &                                   &
  52. &    David C. Howell               &
  53. &    Dept. of Psychology    &
  54. &    University of Vermont  &
  55. &    Burlington, VT 05405   &
  56. &                                  &
  57. &    David.Howell@uvm.edu   &
  58. &                                   &
  59. &-&-&-&-&-&-&-&-&-&-&-&-&-&-&
  60.  
  61. ========================================================================
  62.  
  63. #02
  64.  
  65. Date: Mon, 15 Jun 1992 13:31 EST
  66. From: "Sheryl Bass, ARPC Oswego. Tel. (315) 349-0198"
  67.  <BASS%TECHDB%MISX02@KINGSTON.ARPC.ALCAN.CA>
  68.  
  69.  
  70. hi, I read your question on the STAT-L list - what are you using the
  71. chi-square test for?
  72.  
  73. Sheryl Bass
  74. Internet:  BASS%Techdb@Oswego.ARPC.Alcan.Ca
  75.  
  76.  
  77. ========================================================================
  78.  #03
  79.  
  80. Date: Mon, 15 Jun 1992 13:46 EDT
  81. From: KAPLON@TOWSONVX.BITNET
  82.  
  83. For what hypothesis??  Goodness-of Fit? Test of Independence?  Test about the
  84. variance of one population??
  85.  
  86.         For some we do use a one tail test.   For some the test is one tail
  87. even though the alternative hypothesis is "two tail" because of the
  88. arithmetical nature of the test statistic.   If you can be more specific,
  89. perhaps I can
  90. be of more help.
  91.  
  92. -----------------------------------------------------------------------
  93. | Howard S. Kaplon                    |  Mathematics Department       |
  94. | BITNET:  Kaplon-H@TOWSONVX.BITNET   |  Towson State University      |
  95. | Internet:  Kaplon-H@TOE.TOWSON.EDU  |  Towson, Maryland  21209-7097 |
  96. | Phone:  (410) 830-3087              |  FAX: (410) 830-2604          |
  97. -----------------------------------------------------------------------
  98.  
  99.  
  100.  
  101. Date:         Mon, 15 Jun 92 14:22:22 EDT
  102. From:         Raymond Liedka <RJOY@CORNELLC>
  103.  
  104. A non-technical answer is that it only makes sense to make a one-tailed test.
  105. Why?
  106.  
  107. Think of the kinds of values you have ever seen for the Pearson X2 or the
  108. likelihood-ratio G2...I would bet my house (if I had one) that the values
  109. were always positive.  Remember, the chi-square distributioterminates on the
  110. left-hand side at a X2 value of 0....
  111.  
  112.  
  113.       |
  114.       |             * *
  115.       |           *     *
  116.       |         *         *
  117.       |       *             *
  118.       |     *                 *
  119.       |    *                    *
  120.       |   *                      *
  121.       |  *                         * *
  122.       | *                               *
  123.       |*__________________________________* ******
  124.  
  125.      0
  126.  
  127. The distribution continues on out to infinity on the right.
  128.  
  129. Now, what is it we are trying to examine when we use the chi-square test.
  130. Essentially, what we are trying to do is examine how close the expected values
  131. under some model compare to the observed data.
  132.  
  133. So, the comparison, or test, we are interested in is how large is the
  134. discrepancy between the model and the data.  If the model and the data are
  135. exactly the same, the X2 (and G2) value=0.  We are only interested in the
  136. right-hand side.
  137.  
  138. Finally, think about the normal distribution.  It continues to BOTH positive
  139. and negative infinity.  When using the distribution, the kinds of hypotheses
  140. we try to look at are of the type:   mu = 0
  141. Thus, mu could be negative or positive and be significantly different from
  142. zero.
  143.  
  144. With the chi-square test, we are interested in  testing  for   X2 > 0, it is
  145. inherently a one-tailed test cause the discrepancy between the model and the
  146. observed data cannot be negative.  Note the formula for the Pearson X2
  147. statistic is:
  148.  
  149.  
  150.  
  151.                   ********                       2
  152.                    *        (observed - expected)
  153.                     *       ---------------------
  154.                    *               expected
  155.                   ********
  156.                       i
  157.  
  158.  
  159. Note that the absolute discrepancy is   (observed-expected).  While this can be
  160. less than zero, it is squared for use, making it impossible for X2 to ever be
  161. less than zero.  One-tailed test!
  162.  
  163.  
  164. And remember....
  165.  
  166. Enjoy!!!!!!!!
  167.  
  168.  
  169. Raymond V Liedka
  170. Department of Sociology
  171. Cornell University
  172.  
  173.  
  174. ======================================================================== 50
  175.   #04
  176.  
  177. Date: Mon, 15 Jun 1992 16:13 EDT
  178. From: KAPLON@TOWSONVX.BITNET
  179.  
  180.         Using a Chi-Square test with a 2x2 table for the (I assume) Null
  181. Hypothesis that the proportions of successes in the two populations are
  182. equal is equivalent to using a two-sample Z test on proportions with the
  183. same null hypothesis.   Note that in both cases the Alternative Hypothesis
  184. is the proportions are NOT EQUAL and thus a two-sided test.   It can be
  185. shown that the Chi-Square statistic is equal to the SQUARE of the Z statistic.
  186. Since the Chi-Square is Z-squared, highly significant results will ALWAYS
  187. be large POSITIVE.   Therefore, while the two-sided Z test uses both tails of
  188. the Z distribution, the two-sided Chi-Square test uses only the large POSITIVE
  189. values in the upper or right tail.   The lower or left tail of the Ch-Square
  190. distribution are values near zero, and these values indicate a high agreement
  191. between the observed and expected values.   Since the expected values are
  192. computed under the assumption that the NULL Hypothesis is TRUE, this agreement
  193. of the observed and expected values (i.e., Chi-Square vakues near zero) supports
  194. the Null Hypothesis and doe NOT lead to rejection of the Null Hypothesis.
  195.  
  196.         However, the advantage of the two sample Z test is that one may
  197. specify a one sided alternative and thus do a one tail test.   BUT since
  198. the Chi-Square statistic equals Z-squared, the Chi-Square test on the 2x2
  199. table may NOT be specified as one-sided.
  200.  
  201. -----------------------------------------------------------------------
  202. | Howard S. Kaplon                    |  Mathematics Department       |
  203. | BITNET:  Kaplon-H@TOWSONVX.BITNET   |  Towson State University      |
  204. | Internet:  Kaplon-H@TOE.TOWSON.EDU  |  Towson, Maryland  21209-7097 |
  205. | Phone:  (410) 830-3087              |  FAX: (410) 830-2604          |
  206. -----------------------------------------------------------------------
  207. ==============================================================================
  208.  
  209.  
  210. Date: Mon, 15 Jun 92 20:01:16 CDT
  211.  
  212.  
  213.  
  214. > Can someone provide a succint an easy explanation and/or a
  215. > reference as to why we don't use a one tailed chi square test.
  216. >
  217. Because about the only time that a one-tail test makes any sense is for the 1
  218. degree of freedom test.  The convention is to do the test as a z test by
  219. taking the square root of the chi square and attaching the appropirate sign.
  220.  
  221.  
  222.      J. Philip Miller, Professor, Division of Biostatistics, Box 8067
  223.      Washington University Medical School, St. Louis MO 63110
  224.      phil@wubios.WUstl.edu - Internet  (314) 362-3617 [362-2694(FAX)]
  225.  
  226. ==============================================================================
  227.  #06
  228.  
  229. Date:    Mon, 15 Jun 92 22:54 EDT
  230. From:    "Dennis Roberts" <DMR@PSUVM>
  231.  
  232. In some cases, the test statistic (chi square for example) is such that we
  233. would reject the null if the chi square value is LARGER or SMALLER than some
  234. critical point(s). For example, testing the hypothesis about a population
  235. variance is a chi square test where the numerator is the df value times the
  236. sample variance and the denominator is the hypothesized population variance.
  237. If the true population variance is NOT what you hypothesize, then the chi
  238. square value can be LARGER THAN df OR SMALLER THAN df, depending whether the
  239. true population variance is larger or smaller than you hypothesize. However,
  240. in a case like using chisquare to make a goodness-of-fit test, the closer the
  241. calculated chis square is to 0, the less discrepancy there is between
  242. expectation and observation; a condition that means RETAINING the null
  243. hypothesis. ONly large chi square values GREATER THAN 0 put you in the
  244. position of wanting to reject the null. Thus, thefirst example is a two tail
  245. test (using the chi square distribution) whereas th
  246. e second example is a 1 tail test. IT IS NOT THE DISTRIBUTION THAT DETERMINES
  247. WHETHER IT IS ONE OR TWO TAILS, BUT THE SPECIFIC TEST STATISTIC. For chi square
  248. TESTS, they can be one or two tail. So can F tests, etc.
  249.  
  250. ===============================================================================
  251.  
  252.   #07
  253.  
  254. Date:         Mon, 15 Jun 1992 14:49:07 CST
  255. From:         EJOHNSON@CMSUVMB.BITNET
  256.  
  257. Can someone provide a succint an easy explanation and/or a
  258. reference as to why we don't use a one tailed chi square test.
  259.  
  260.  
  261. A concise answer is that there is only one tail to consider since it is
  262. impossible to get a negative chi square score. -- Ed Johnson, CMSU
  263. ========================================================================
  264.  
  265. #08
  266. Date:     Tue, 16 Jun 92 11:30:23 +0100
  267. From:     mff@ukc.ac.uk
  268.  
  269. Most uses of chi squared tests on contingency tables, or for testing goodness
  270. of fit, __do__ use a one tailed rejection region. Do you have some other kind
  271. of chi square(d) test context in mind?
  272.  
  273. There are dangers in doing contingency table tests this way. An unusually small
  274. chi square statistic, suggesting almost exact agreement between the theory
  275. generating the expected frequencies and the corresponding observed frequencies,
  276. could raise suspicions of fraud - the results are too good to be true. Modern
  277. writers have wondered whether the father of genetics, Mendel, may have been
  278. over zealously "helped" by his assistant in the monastery garden, as some of
  279. his cross breeding experiments with plants fall into this category. I do not
  280. have a reference at my fingertips, so hope one of your other respondents does.
  281.  
  282. Mike Fuller
  283. - statistician marooned in Canterbury Business School, University of Kent,
  284. Canterbury, Kent, CT2 7PD, England (email: mff@ukc.ac.uk - in UK mff@uk.ac.ukc)
  285.  
  286. ========================================================================
  287.   #09
  288.  
  289. Date: 16 Jun 92 20:54:09 U
  290. From: "dick darlington" <dick_darlington@qmrelay.mail.cornell.edu>
  291.  
  292.  Reply to:     One-tailed chi-square#000#
  293. I assume you are talking about tests with a directional prediction in a 1 x 2
  294. or 2 x 2 chi-square, with the one-tailed p found by dividing the usual p by 2.
  295. I don't think there is any good reason for avoiding this unless one opposes all
  296. one-tailed tests (there are such people).  I present it as a standard method in
  297. "Behavioral Statistics" (Free Press 1987), though as you say it's not widely
  298. used.
  299. Dick Darlington, Psychology, Cornell#000#
  300. ========================================================================
  301.   #10
  302.  
  303. Date:         Thu, 25 Jun 1992 17:31:35 EDT
  304. From:         "Karl L. Wuensch" <PSWUENSC@ECUVM1.BITNET>
  305.  
  306.      If using chi-square to test the null that a population variance is of
  307. a specified value, one does use a two-tailed test.  To test the null that
  308. the variance is less than or equal to (or greater than or equal to), one
  309. uses a one-tailed test.
  310.  
  311.      In its most common application, the Pearson chi-square test for
  312. independence in a two-way contingency table, the nondirectional hypothesis
  313. is appropriately tested with an one-tailed, upper-tailed, test -- why? --
  314. well, regardless of the direction in which your expected frequences differ
  315. from the observed, the greater the magnitude of such differences the greater
  316. the chi-squared.  The F used to test nondirectional hypotheses in ANOVA is
  317. another example of the appropriate use a one-tailed test for nondirectional
  318. hypotheses.  What to do if your hypotheses are directional?  Suppose your
  319. alternative hypotheses is mu1 > mu2 > mu3.  Compute the usual F, obtain its
  320. upper-tailed p and divide by 3 factorial (the number of ways in which the
  321. means could have been ordered).  I assume that the results confirm the
  322. hypothesized ordering of the means, if not, you must retain the null in any
  323. case.  I suppose we could call this test a "one-sixth tailed test."
  324.  
  325.       Karl L. Wuensch, Dept. of Psychology, East Carolina Univ.
  326.       Greenville, NC  27858-4353, PSWUENSC AT ECUVM1 (BITNET)
  327. ========================================================================
  328.   #11
  329.  
  330. Date:         Mon, 29 Jun 1992 19:13:47 GMT
  331. From:         Jerry Dallal <jerry@NUTMEG.HNRC.TUFTS.EDU>
  332.  
  333. Anyone who wants one can have a 2-tailed chi-square test.  The question is, "Do
  334. you want one?"
  335.  
  336. First, some clarification.  Just what do you mean by a 2-tailed chi-square
  337. test?  Let's assume it's for independence in a two-fold table.
  338. (Generalization to other situations should be clear.)
  339.  
  340. Is the test to be two-fold in terms of some null hypothesis, e.g., the row
  341. categories are associated with the column catagories?  In this case the, usual
  342. chi-square statistic is already 2-tailed since large values of the statistic
  343. occur for either a positive or negative association between the categories.
  344.  
  345. Is the test to be 2-tailed in terms of the distribution of some test statistic?
  346. If the test statistic is the usual goodness-of-fit statistic, then rejecting
  347. the statistic for small values is a statement that the data were too close to
  348. their expected values, that is, they were too good to be true!  This sort of
  349. test might be appropriate if someone were suspected of cheating or fabricating
  350. data.  I recall, but
  351. I can't give a reference, of hearing that this sort of analysis was applied to
  352. some of Mendel's data because some of his data were in such close agreement
  353. with his theories.
  354.  
  355.  
  356. This 2-tailed chi-square test would be analogous to a test of a normal mean
  357. of 0 that rejected for |z|> 2.414 or |z|<.0313 .
  358. ========================================================================
  359.     #12
  360.  
  361. Date:         Mon, 29 Jun 1992 16:31:00 EST
  362. From:         "Philip Gallagher,(919)966-7275" <UPHILG@UNC.BITNET>
  363.  
  364.     All this talk of two-tailed Chi-sq tests has stirred a VERY
  365.     dim memory, and trying to remember the rest of it is driving
  366.     me daffy.  Is there anyone out there who remembers/can think
  367.     of a connotation, probably in a lower level course, where it
  368.     made sense for the teacher to have talked about the upper
  369.     95% of the chi-sq distn?  Possibly in talking about noncentral
  370.     distributions?  I can visualize the picture on the blackboard,
  371.     but I cannot think of the application.
  372.                                      Phil Gallagher
  373. ========================================================================
  374.     #13
  375.  
  376. Date:         Mon, 29 Jun 1992 14:58:48 MDT
  377. From:         vokey@HG.ULETH.CA
  378.  
  379. Jerry Dallal notes:
  380. "If the test statistic is the usual goodness-of-fit statistic, then rejecting
  381. the statistic for small values is a statement that the data were too close to
  382. their expected values, that is, they were too good to be true!  This sort of
  383. test might be appropriate if someone were suspected of cheating or fabricating
  384. data."
  385.  
  386. Aside from cheating, another commonplace use of the bounded chi-square tail
  387. (i.e., close to zero) is in the testing of pseudo-RNGs (random number
  388. generators) where the problem of too good of a fit means the RNG is NFG!
  389.  
  390. John R. Vokey <vokey@hg.uleth.ca>
  391. ========================================================================
  392.     #14
  393.  
  394. Date:         Fri, 26 Jun 1992 11:18:34 GMT
  395. From:         Ronan M Conroy <RCONROY@IRLEARN.UCD.IE>
  396.  
  397. The nub of the matter is that the pearson chi-sq test, like the
  398. F ratio, tests the ability of a model to predict the observed
  399. data. The expected frequencies in the table being tested are
  400. the ones predicted by the null hypothesis model, which says
  401. that the observed frequencies are simply a product of the
  402. total number of cases in the table and the marginal proportions.
  403. Lack of fit between expected and observed is counted regardless
  404. of whether the model over- or  underestimated the number of
  405. cases in the cell, because the hypothesis being tested is
  406. non-directional: it says that you can predict cell frequencies,
  407. near as dammit, using marginal proportions. When you think of
  408. it, since the table's total number of cases is used to make
  409. individual cell predictions, the null hypothesis model will
  410. neither over- nor under-predict the cell frequencies over the
  411. whole table (sum of expected must equal sum of observed!)
  412. so you cannot have a hypothesis that says 'The marginal proportions
  413. and total N predict a higher number/lower number of cases than
  414. are actually observed in the table.)
  415.  
  416. Blast it! Simple ideas are so haaaaaaaaaaaaard to explain.
  417. Forgive me for having a go, though; I enjoy it if no-one else does.
  418.  
  419. ===============================================================================
  420.   #15
  421.  
  422. Date:         Mon, 29 Jun 1992 16:43:46 U
  423. From:         dick darlington <dick_darlington@QMRELAY.MAIL.CORNELL.EDU>
  424.  
  425.                                                                      4:28 PM
  426.   OFFICE MEMO                                                 Time:
  427.                       Subject:
  428.                       1-tailed chi-square#000#                          06-29-92
  429.                                                               Date:
  430.  
  431. In a 2 x 2 chi-square test in which you correctly predicted the direction of
  432. the result, I consider it perfectly acceptable to divide the tabled p by 2 to
  433. get a one-tailed value.  The Fisher 2 x 2 test tests the same null hypothesis
  434. (ignoring fine points about fixed versus random marginals), and the Yates
  435. correction for continuity is justified largely on the ground that it makes the
  436. p from chi-square closely approximate the Fisher p.  But the p that does this
  437. is _half_ the p from the chi-square table.
  438. Dick Darlington, Psychology, Cornell
  439. ========================================================================
  440.   #16
  441.  
  442. Date:         Mon, 29 Jun 1992 16:51:59 U
  443. From:         dick darlington <dick_darlington@QMRELAY.MAIL.CORNELL.EDU>
  444.  
  445.                                                                      4:38 PM
  446.   OFFICE MEMO                                                 Time:
  447.                       Subject:
  448.                       Left tail of chi-square#000#                      06-29-92
  449.                                                               Date:
  450.  
  451. In response to Philip Gallagher's question: Let V denote the observed residual
  452. variance in a regression, and you want to find an upper confidence limit on the
  453. true residual variance.  You then find yourself asking about the probability
  454. that observed V could have been so small if the true variance were some
  455. specified value.  In other words, you're working with the left tail ofthe
  456. chi-square distribution.
  457. Dick Darlington, Psychology, Cornell#000#
  458. ========================================================================
  459.    #17
  460.  
  461. Date:         Tue, 30 Jun 1992 12:06:52 CET
  462. From:         Joop Hox <A716HOX@HASARA11.BITNET>
  463.  
  464. Well, if you are exploratively fitting lisrel or glim models and you
  465. end up with a chi-square for the model fit with a p-value of .99 or so,
  466. you could argue that is a proof of significantly over-fitting your
  467. model. It simply fits too well, like Mendel's pea data.
  468.  
  469. Joop Hox
  470. University of Amsterdam
  471. ========================================================================
  472.     #18
  473.  
  474. Date:         Tue, 30 Jun 1992 10:01:00 U
  475. From:         dick darlington <dick_darlington@QMRELAY.MAIL.CORNELL.EDU>
  476.  
  477.  
  478.                                                                      9:17 AM
  479.   OFFICE MEMO                                                 Time:
  480.                       Subject:
  481.                       Left tail of chi-square#000#                      06-30-92
  482.                                                               Date:
  483.  
  484. Barrie Robinson's point is well taken: in my message on the left tail of the
  485. chi-square distribution, I didn't focus on the current topic, which is
  486. goodness-of-fit chi-square tests.  Let me try another (entirely hypothetical)
  487. example.  An archaeologist finds a crypt containing 240 funeral urns from an
  488. ancient civilization whose writing we can read.  Each urn indicates the gender
  489. of its occupant.  The urns are not in pairs, and are not segregated by gender,
  490. but there are exactly 120 of each gender.  To show that this equality must have
  491. been intentional, if we used a chi-square goodness-of-fit test we would need to
  492. show that even if the gender ratio was 1.0 in that society, the probability is
  493. small that the two groups would be so equal.
  494.     For a test of association, suppose we observed that in a large company,
  495. almost exactly 12% of the employees in every division were black.  A test for
  496. association between division and race, using the left tail of the chi-square
  497. distribution, could show that this equality of proportion was greater than
  498. would be expected by chance.  I'm not commenting on the ethical or legal
  499. implications of that finding, I'm just saying that's how the H would be tested.
  500.     In both my examples and the "cheating scientist" example mentioned earlier,
  501. the H1 being corroborated by a significant result is some kind of unnatural (in
  502. these examples human) intervention.  We might imagine examples not involving
  503. human or even animal behavior, in which a significant result demonstrates some
  504. sort of homeostatic mechanism that keeps something even.
  505. Dick Darlington, Psychology, Cornell
  506. ========================================================================
  507.    #18
  508.  
  509. Date:         Tue, 30 Jun 1992 10:41:00 EST
  510. From:         PLOCH@UTKVX.BITNET
  511.  
  512. Jerry Dallal writes: "If the test statistic is the usual goodness-of-fit
  513. statistic,then rejecting the statistic for small values is a statement that
  514. the data weretooclose to their expected values, that is, they were too good
  515. to be true!  This sort of test might be appropriate if someone were suspected
  516. of cheating or fabricating data."
  517.  
  518. I no longer have the reference but Finklestein writing about judges/lawyers
  519. useofstatistics mentions a case in South Carolina in which the expected
  520. proportions ofblacks on series of petit juries could have been rejected
  521. because there was notenough variation for random assignment. The proportion
  522. black required 1.7 blacks
  523.  
  524. per jury. Jurries had either 1 or 2 blacks and the average number of blacks
  525. neverstrayed far from 1.7. The Supreme Court did not use statistics to
  526. declare theselection method unconstitutional, instead they found that
  527. prospective white jurorshad their names placed on white slips of paper;
  528. balck on yellow slips. Clearerevidence of cheating than a chi square test.
  529.  
  530. Don Ploch
  531.         PLOCH@UTKVX
  532.         PLOCH@UTKVX.UTK.EDU
  533. ========================================================================
  534.   #19
  535.  
  536. Date:         Tue, 30 Jun 1992 09:46:58 +1200
  537. From:         brobinso@LEVEN.APPCOMP.UTAS.EDU.AU
  538.  
  539. In this discussion of how many tails a chi-square test can have, one fact
  540. appears to be being overlooked: the chi-square test is an approximation (in
  541. some sense) to the true distribution, which is the multinomial
  542. distribution. The null hypothesis might be p1 = p10, p2 = p20, . . ., pk =
  543. pk0, where p10+p20+ . . . + pk0=1. The alternative is any other set of pi's
  544. that add up to 1, and is hence "multi-tailed".
  545.  
  546. In the case of a contingency table, H0 may be stated in the form,
  547.      p11:p12:p13: . . . :p1c = p21:p22:p23: . . . :p2c = p31: . . .
  548.     =pr1:pr2:pr3: . . . :prc, for r rows and c columns.
  549.  
  550. The alternative may be any other distribution of p's.
  551.  
  552. In the case of a 2X2 table, there are really only 2 alternatives, namely,
  553.  
  554.     p11:p12>p21:p22,  and  p11:p12<p21:p22, hence if the true distribution,
  555. (which would be quadrinomial?) is considered, both tails could be
  556. separately considered, and the power of the test be evaluated.
  557.  
  558. The nature of the "approximation" in the so-called chi-square test, like
  559. that in the log-likelihood-ratio test, which is also asymptotically
  560. distributed as chi-square, is such that all the information about different
  561. tails is lost. Or so it seems to me, anyway.
  562.  
  563. Barrie.
  564.  
  565.  
  566. --
  567. Barrie Robinson,                  |email:
  568. brobinso@leven.appcomp.utas.edu.au
  569. University of Tasmania at Launceston.  |phone:  (61)(003)260211
  570.  
  571. ========================================================================
  572.    #20
  573.  
  574. Date:         Tue, 30 Jun 1992 09:58:31 +1200
  575. From:         brobinso@LEVEN.APPCOMP.UTAS.EDU.AU
  576.  
  577. dick darlington says:
  578. >                      Subject:
  579. >                      Left tail of chi-square#000#
  580.  06-29-92
  581. >                                                              Date:
  582. >
  583. >In response to Philip Gallagher's question: Let V denote the observed residual
  584. >variance in a regression, and you want to find an upper confidence limit on the
  585. >true residual variance.  You then find yourself asking about the probability
  586. >that observed V could have been so small if the true variance were some
  587. >specified value.  In other words, you're working with the left tail ofthe
  588. >chi-square distribution.
  589. >Dick Darlington, Psychology, Cornell#000#
  590. >
  591. This is fine, but most of us (and probably Philip Gallagher) were talking
  592. about the goodness of fit test, which is quite different. I don't know
  593. where non-central distributions fit in, or much else about them. Don't they
  594. have something to do with the true distribution when the null hypothesis
  595. fails (according to a certain model)?
  596.  
  597. Barrie.
  598.  
  599.  
  600.  
  601. --
  602. Barrie Robinson,                  |email:
  603. brobinso@leven.appcomp.utas.edu.au
  604. University of Tasmania at Launceston.  |phone:  (61)(003)260211
  605. ========================================================================
  606.  
  607. Thanks to all those who responded,
  608. ------------------------------------------------------
  609. ║      ART ELLEN           ║  PSYCHOLOGY DEPARTMENT  ║
  610. ║ BITNET:  ELLEN@PACEVM    ║     PACE UNVERSITY      ║
  611. ║  VOICE:  (212) 346-1506  ║       41 PARK ROW       ║
  612. ║                          ║ NEW YORK, NY 10038-1502 ║
  613. ------------------------------------------------------
  614.