home *** CD-ROM | disk | FTP | other *** search
/ Shareware Overload / ShartewareOverload.cdr / educ / freest2.zip / PARATEST.HLP < prev    next >
Text File  |  1991-04-11  |  14KB  |  395 lines

  1. ╔═══════════╗
  2. ║ ███ ▄ ███ ║  CHAPTER 5
  3. ║ ▀▀▀▀▀▀▀▀▀ ║
  4. ║ ▄▄▄▄▄▄▄▄▄ ║  PARAMETRIC HYPOTHESIS TESTS
  5. ║ ███ ▀ ███ ║
  6. ╚═══════════╝
  7.  
  8.  
  9.   A wide variety of the commonly used parametric hypothesis tests
  10. are available for use right on screen.  They provide quick and
  11. easy solutions to the computation of various parametric tests
  12. that are often very difficult to perform by hand or by use of a
  13. calculator.  The computations are rapid and very accurate.  All
  14. you need to do is enter a few items of information and you will
  15. quickly have the answers you need. 
  16.  
  17.  
  18.                     ONE-SAMPLE TEST OF MEANS
  19.  
  20.   When you choose the option to conduct a one-sample test of
  21. means, you will be conducting a t-test of the hypothesis that a
  22. sample mean significantly differs from 0 or from a known or
  23. presumed population mean.  The program will ask you to enter the
  24. sample size, the sample mean, the standard deviation computed
  25. from the sample and corrected for bias, and the population mean.
  26. If you enter a population mean of 0 you will be testing the
  27. hypothesis that the sample mean departs from zero.  If you enter
  28. any other population mean, Mu, you will be testing the hypothesis
  29. that the Diff = Mn - Mu = 0.  You may enter raw or summary data
  30. at the keyboard and you may conduct your hypothesis tests at the
  31. 90%, 95% or the 99% confidence level.
  32.  
  33.   The following are sample outputs from the one-sample test of
  34. means where Mean is the sample mean, Mu is the population mean,
  35. and SEM is the standard error of the mean.
  36.  
  37.       N = 7             SEM = 5.37568
  38.    Mean = 27.57143        t = 5.12892
  39.      Mu = 0.00000        p <= 0.00268
  40.       99% Confidence Interval
  41.      8.76192 <= Mn <= 46.38094
  42.  
  43.       N = 189           SEM = 0.80013
  44.    Mean = 35.00000        t = 43.74277
  45.      Mu = 0.00000        p <= 0.00000
  46.       99% Confidence Interval
  47.     32.93886 <= Mn <= 37.06114
  48.  
  49.       N = 300           SEM = 1.21244
  50.    Mean = 47.00000        t = -0.82479
  51.      Mu = 48.00000       p <= 0.20475
  52.       95% Confidence Interval
  53.    44.62363 <= Diff <= 49.37637
  54.  
  55.  
  56.            TWO-SAMPLE TEST OF MEANS: DEPENDENT SAMPLES
  57.  
  58.   The two-sample test of means for dependent samples enables you
  59. to compare two means that are obtained from the same subjects.
  60. It is often called the "direct difference t-test of means".  If
  61. you enter raw scores, the program will compute and report the
  62. correlation for you.  If you enter summary data, you must know
  63. the correlation between the two variables as well as the sample
  64. means, standard deviations and the sample size.  The program
  65. produces the difference between the two means, the standard error
  66. of that difference, the t-test and its associated probability,
  67. and one of three confidence intervals that you specify.
  68.  
  69.   The following are samples of outputs for the two-sample test of
  70. means using dependent samples.
  71.  
  72.       GROUP I                   GROUP II
  73.  N      = 34                   N      = 34
  74.  Mean x = 87.00000             Mean x = 95.00000
  75.  SDx    = 23.00000             SDx    = 28.00000
  76.  SEDiff = 5.07323                r = 0.34000
  77.     t   = -1.57691                p  <= 0.12070
  78.  Mean 1 - Mean 2  = -8.00000
  79.  
  80.       99% Confidence Interval
  81.    -21.95138 <= Diff <= 5.95138
  82.  
  83.  
  84.           TWO-SAMPLE TEST OF MEANS: INDEPENDENT SAMPLES
  85.  
  86.   The two-sample test of means using independent samples is the
  87. good old "t-test for mean differences".  You may enter raw or
  88. summary data from the keyboard and the following are sample
  89. outputs from this procedure.
  90.  
  91.       GROUP I                   GROUP II
  92.  N      = 89                   N      = 114
  93.  Mean x = 54.00000             Mean x = 61.00000
  94.  SDx    = 28.00000             SDx    = 31.00000
  95.  SEDiff = 4.20442
  96.     t   = -1.66492                p  <= 0.04796
  97.  Mean 1 - Mean 2  = -7.00000
  98.  
  99.       95% Confidence Interval
  100.    -15.24066 <= Diff <= 1.24066
  101.  
  102.  
  103.                     TEST PEARSON CORRELATIONS
  104.  
  105.   There are six tests of correlations that have identical inputs
  106. and outputs.  These are the test of a Pearson r, Phi, Point-
  107. Biserial, Spearman's Rho, partial correlations, and semi-partial
  108. correlations.  For each of these tests, you need only enter the
  109. sample size and the value of the correlation.  The program does
  110. the rest and provides you with an F-ratio, degrees of freedom for
  111. hypothesis (dfh), degrees of freedom for error (dfe), the
  112. associated probability for the F-ratio and a confidence interval
  113. for your correlation.
  114.  
  115.     N = 18        dfh =     1
  116.     r = 0.46000   dfe =    16
  117.     F =  4.29427   p <= 0.05229
  118.       95% Confidence Interval
  119.     -0.05003 <=  r  <= 0.77973
  120.  
  121.  
  122.                       TEST PHI COEFFICIENT
  123.  
  124.   See the above explanation for "Test Pearson Correlation".  The
  125. inputs and outputs are identical.  The only difference is that
  126. you will enter your Phi coefficient instead of the Pearson r. 
  127.  
  128.     N = 67        dfh =     1
  129.     r = 0.18000   dfe =    65
  130.     F =  2.17652   p <= 0.14120
  131.       95% Confidence Interval
  132.     -0.06791 <=  r  <= 0.40698
  133.  
  134.  
  135.                  TEST POINT-BISERIAL CORRELATION
  136.  
  137.   See the above explanation for "Test Pearson Correlation".  The
  138. inputs and outputs are identical.  The only difference is that
  139. you will enter your Point-Biserial correlation instead of the
  140. Pearson r. 
  141.  
  142.     N = 219       dfh =     1
  143.     r = 0.17000   dfe =   217
  144.     F =  6.45793   p <= 0.00552
  145.       95% Confidence Interval
  146.      0.03829 <=  r  <= 0.29591
  147.  
  148.  
  149.                         TEST SPEARMAN RHO
  150.  
  151.   See the above explanation for "Test Pearson Correlation".  The
  152. inputs and outputs are identical.  The only difference is that
  153. you will enter your Spearman Rho instead of the Pearson r. 
  154.  
  155.     N = 189       dfh =     1
  156.     r = 0.67000   dfe =   187
  157.     F = 152.32136   p <= 0.00000
  158.       95% Confidence Interval
  159.      0.58302 <=  r  <= 0.74179
  160.  
  161.  
  162.                     TEST PARTIAL CORRELATION
  163.  
  164.   See the above explanation for "Test Pearson Correlation".  The
  165. inputs and outputs are identical.  The only difference is that
  166. you will enter your partial correlation instead of the Pearson r.
  167.  
  168.     N = 118       dfh =     1
  169.     r = 0.23000   dfe =   116
  170.     F =  6.47915   p <= 0.01178
  171.       95% Confidence Interval
  172.      0.04951 <=  r  <= 0.39594
  173.  
  174.  
  175.                   TEST SEMI-PARTIAL CORRELATION
  176.  
  177.   See the above explanation for "Test Pearson Correlation".  The
  178. inputs and outputs are identical.  The only difference is that
  179. you will enter your semi-partial correlation instead of the
  180. Pearson r. 
  181.  
  182.     N = 56        dfh =     1
  183.     r = 0.54000   dfe =    54
  184.     F = 22.22812   p <= 0.00009
  185.       95% Confidence Interval
  186.      0.31801 <=  r  <= 0.70586
  187.  
  188.  
  189.                    TEST MULTIPLE CORRELATIONS
  190.  
  191.   The test of a multiple correlation is used to test the null
  192. hypothesis, H: R = 0.  In order to use it, you must enter the
  193. sample size, the multiple correlation, R, and the number of
  194. independent variables, IVs, used to obtain R.  The program will
  195. produce the F-ratio, degrees of freedom for hypothesis (dfh),
  196. degrees of freedom for error (dfe), the probability associated
  197. with the F-ratio, and the confidence interval that you specify.
  198. The program then produces the same information for the shrunken
  199. multiple correlation, and the following are sample outputs from
  200. the program.
  201.  
  202.     N = 137       dfh =     3
  203.     r = 0.43000   dfe =   133
  204.     F = 10.05672   p <= 0.00004
  205.     IV's = 3
  206.       95% Confidence Interval
  207.      0.27989 <=  r  <= 0.55959
  208.  
  209.       SHRUNKEN CORRELATION
  210.     N = 137       dfh =     3
  211.     r = 0.40806   dfe =   133
  212.     F = 10.05672   p <= 0.00004
  213.     IV's = 3
  214.       95% Confidence Interval
  215.      0.25518 <=  r  <= 0.54104
  216.  
  217.  
  218.                        TEST CHANGE IN R^2
  219.  
  220.   The ability to test a change in a squared multiple correlation,
  221. R^2, can be extremely important.  In order to do that, you will
  222. need to enter the degrees of freedom for hypothesis, dfh, the
  223. degrees of freedom for error, dfe, the change in R^2 that you
  224. wish to test, and the overall R^2 for the multiple regression
  225. model.  In the first example shown below, the value of dfh = 1
  226. for the test of an increment in R^2 due to the addition of only
  227. one variable.  In the second example, the change in R^2 was based
  228. on the addition of three variables so the value of dfh = 3.
  229.  
  230.      dfh        = 1
  231.      dfe        = 218
  232.      R^2 Change = 0.14000
  233.      R^2 Total  = 0.47000
  234.      F-ratio    = 57.5849
  235.      p         <= 0.48394
  236.  
  237.      dfh        = 3
  238.      dfe        = 321
  239.      R^2 Change = 0.26000
  240.      R^2 Total  = 0.37000
  241.      F-ratio    = 44.1587
  242.      p         <= 0.00006
  243.  
  244.  
  245.                  ONE-SAMPLE TEST OF PROPORTIONS
  246.  
  247.   The one-sample test of proportions is much like the one-sample
  248. test of means.  If you enter a population proportion of 0 you
  249. will be testing the hypothesis that your sample proportion is
  250. equal to 0.  If you enter any other value for the population
  251. proportion, you will be testing the hypothesis that Diff = SP-PP
  252. = 0.  These features are illustrated by the following sample
  253. outputs. 
  254.  
  255.       SP = 0.14000          PP = 0.00000
  256.        N = 89              SEP = 0.03678
  257.        t = 2.00000          p <= 0.00051
  258.      95% Confidence Interval for Proportion
  259.            0.00000 <= SP <= 0.28000
  260.  
  261.       SP = 0.23000          PP = 0.27000
  262.        N = 121             SEP = 0.03826
  263.        t = 1.98000          p <= 0.29819
  264.      95% Confidence Interval for Proportion
  265.            0.19000 <= Diff <= 0.27000
  266.  
  267.  
  268.         TWO-SAMPLE TEST OF PROPORTIONS: DEPENDENT SAMPLES
  269.  
  270.   The two-sample test of proportions for dependent samples
  271. enables you to test the hypothesis, Ho: p1 = p2.  You need only
  272. enter the two proportions and the sample size in order to obtain
  273. the output illustrated below.
  274.  
  275.           GROUP I                   GROUP II
  276.      Prop   = 0.42000              Prop   = 0.38000
  277.      N      = 134                  N      = 134
  278.      Difference = 0.04000
  279.      t = -0.51769    p <= 0.30234
  280.  
  281.  
  282.        TWO-SAMPLE TEST OF PROPORTIONS: INDEPENDENT SAMPLES
  283.  
  284.   The two-sample test of proportions for independent samples
  285. enables you to test the hypothesis, Ho: p1 = p2.  You need only
  286. enter the two proportions and the sample size in order to obtain
  287. the output illustrated below.
  288.  
  289.           GROUP I                   GROUP II
  290.      Prop   = 0.38000              Prop   = 0.31000
  291.      N      = 89                   N      = 112
  292.      Std Dev = 0.05025            Std Dev = 0.04479
  293.      Difference     = 0.07000    SEDiff = 0.06732
  294.      t = 1.03989     p <= 0.14920
  295.       95% Confidence Interval for Difference
  296.             -0.06194 <= Diff <= 0.20194
  297.  
  298.  
  299.              ONE-SAMPLE TEST OF A STANDARD DEVIATION
  300.  
  301.   This test is analagous to the one-sample test of means except
  302. that it is conducted for standard deviations.
  303.  
  304.       N = 67           Mean = 35
  305.      SD = 17.00000      PSD = 21.00000
  306.       t = -2.72373     SESD = 1.46858
  307.      p <= 0.00816
  308.          95% Confidence Interval
  309.       -6.93715 <= Diff <= -1.06285
  310.  
  311.  
  312.          TWO-SAMPLE TEST OF VARIANCES: DEPENDENT SAMPLES
  313.  
  314.   This test is analagous to the two-sample test of means using
  315. dependent samples except that the test is applied to variances.
  316.  
  317.           GROUP I                   GROUP II
  318.      N      = 36                   N      = 36
  319.      Var X  = 127.00000            Var X  = 138.00000
  320.      SD  X  = 11.26943             SD  X  = 11.74734
  321.      Difference = Var1 - Var2  = -11.00000
  322.      SEDiff = 43.72152                t    = -0.25159
  323.         r   = 0.27000                p   <= 0.79825
  324.               95% Confidence Interval
  325.           -100.27934 <= Diff <= 78.27934
  326.  
  327.  
  328.         TWO-SAMPLE TEST OF VARIANCES: INDEPENDENT SAMPLES
  329.  
  330.   This test is analagous to the two-sample test of means using
  331. independent samples except that the test is applied to variances.
  332.  
  333.           GROUP I                   GROUP II
  334.      N      = 168                  N      = 236
  335.      Var x  = 489.00000            Var x  = 512.00000
  336.          F  = 1.04703               p     <= 0.18867
  337.  
  338.  
  339.             TEST TWO CORRELATIONS: DEPENDENT SAMPLES
  340.  
  341.   Often one has a correlation between X and Y and for X and Z
  342. from the same sample.  In such cases it is desirable to test the
  343. hypothesis that the two correlations are equal, i.e.  that r(xy)
  344. = r(xz).  This procedure enables you to do that.  You need only
  345. enter the sample size and the two correlations.  However, you
  346. must also enter the correlation, r(yz), between the variables Y
  347. and Z.  Remember, the test is on the hypothesis, Ho: r(xy) =
  348. r(xz).  The following is a sample of the output from this
  349. procedure.
  350.  
  351.  N      = 79             r(xy)  = 0.47000
  352.  r(xz)  = 0.52000        r(yz)  = 0.23000
  353.  Diff   = r(xy) - r(xz)     = -0.05000
  354.  z      = -0.44074           p <= 0.66481
  355.       95% Confidence Interval
  356.     -2.46105 <= Diff <= 1.57223
  357.  
  358.  
  359.            TEST TWO CORRELATIONS: INDEPENDENT SAMPLES
  360.  
  361.   Often one has two correlations for the same variables but from
  362. independent samples.  In such cases it is often desirable to test
  363. the hypothesis that the two correlations are equal.  This
  364. procedure enables you to do that.  You need only enter the sample
  365. size and the correlation for each of the two groups or samples
  366. and the following is a sample of the output from this procedure.
  367.  
  368.           GROUP I               GROUP II
  369.         N   = 89                  N   = 131
  370.         r   = 0.46000             r   = 0.37000
  371.         Z   = 0.49731             Z   = 0.38842
  372.  Difference = 0.10889
  373.         t   = 0.78096             p  <= 0.21741
  374.               95% Confidence Interval
  375.             -0.16439 <= Diff <= 0.38217
  376.  
  377.  
  378.                          OMNIBUS R TEST
  379.  
  380.   The Omnibus R Test enables you to enter an entire correlation
  381. matrix from the keyboard and then test the hypothesis that there
  382. are no significant correlations within the entire matrix.  In
  383. other words, one is never justified in analyzing a correlation
  384. matrix, using multivariate procedures for example, unless one can
  385. first reject the null hypothesis, Ho: R = 0.  The Omnibus R Test
  386. provides such a test and the following is a sample of the output
  387. from this procedure for 4x4 correlation matrix.
  388.  
  389.  N    = 367             df   = 6
  390.  Chi-Square  = 571.82834
  391.           p <= 0.00000
  392.  
  393.  
  394.                          END OF CHAPTER
  395.