home *** CD-ROM | disk | FTP | other *** search
/ Shareware Overload / ShartewareOverload.cdr / educ / freest2.zip / REGRESS.HLP < prev    next >
Text File  |  1991-04-11  |  6KB  |  224 lines

  1. ╔═══════════╗
  2. ║ ███ ▄ ███ ║  CHAPTER 4
  3. ║ ▀▀▀▀▀▀▀▀▀ ║
  4. ║ ▄▄▄▄▄▄▄▄▄ ║  ELEMENTARY REGRESSION
  5. ║ ███ ▀ ███ ║
  6. ╚═══════════╝
  7.  
  8.  
  9.   The "Elementary Regression" module of FREESTAT is provided for
  10. those who may need to conduct a simple regression analysis by
  11. entering data from the keyboard.  Thus, it can be a very handy
  12. labor saver for those quick and dirty jobs.  In addition to the
  13. simple regression procedures, you may also conduct multiple
  14. regression using two independent variables.
  15.  
  16.  
  17.                     VARIABLE TRANSFORMATIONS
  18.  
  19.   The regression procedures will also permit data transformations
  20. if you elect to use raw data input.  The permissible
  21. transformations are:
  22.  
  23.      A  X = X + a         a = Numerical constant
  24.      B  X = X * b         b = Numerical constant
  25.      C  X = 1/X           Reciprocal transformation
  26.      D  X = SQRT(X)       Square root transformation
  27.      E  X = LN(X)         Naperian logarithm
  28.      F  X = LN10(X)       Common logarithm
  29.      G  X = ARCSIN(X)     Arcsin transformation
  30.      H  X = LOGIT(X)      Logit transformation
  31.      I  X = PROBIT(X)     Probit transformation
  32.      J  X = X^y           Power of y = Numerical constant  
  33.      K  Cancel transformations
  34.  
  35.   When you choose the option to transform a variable, the above
  36. transformations will be presented to you for selection.  The
  37. transformations will be carried out in the order in which you
  38. choose them.  It is very important that you understand how that
  39. works. 
  40.  
  41.   Suppose, for example, that you want to transform X such that X
  42. = 14 + 3 * X.  You would first choose Option B and then enter the
  43. value of 3.  You would then choose Option A and then enter the
  44. value of 14.  The resulting transformation would then be:
  45.  
  46.      X = (X * 3) + 14
  47.  
  48.   Now consider what would happen if you chose Option A first and
  49. then Option B.  If you chose Option A and then entered 14 you
  50. would have X = X + 14.  If you then chose Option B and entered
  51. the value of 3, you would have the transformation,
  52.  
  53.      X = (X + 14) * 3
  54.  
  55. which would be incorrect.  Just remember, all transformations are
  56. executed in the order they are selected.
  57.  
  58.  
  59.                       BIVARIATE REGRESSION
  60.  
  61.   The bivariate regression procedure enables you to conduct
  62. simple linear regression analyses of the form:
  63.  
  64.   Simple linear regression -- Y = a + bX + e
  65.   Geometric regression --     Y = a * X^b, and
  66.   Exponential regression --   Y = a * b^X
  67.  
  68.   The following is a sample of the output generated by the
  69. bivariate regression procedure using summary data and simple
  70. linear regression.
  71.  
  72. Simple Linear Regression
  73.  Mean of Y = 34.90000
  74.  Mean of X = 18.30000
  75.  SD of Y   = 12.80000
  76.  SD of X   = 8.30000 
  77.  r         = 0.64000 
  78.  N         = 300     
  79.  Sum y^2   = 48988.16000
  80.  Sum x^2   = 20598.11000
  81.  Sum xy    = 20330.08640
  82.  
  83. Regression of Y on X
  84.  Slope            b = 0.98699
  85.  Correlation      r = 0.64000
  86.  Explained SS   ESS = 20065.55034
  87.  Residual SS    RSS = 28922.60966
  88.  Std error       SE = 9.85169
  89.             F-ratio = 206.74255
  90.                  p <= 0.00000
  91.  
  92.     95% Confidence Intervals
  93.     15.72330 <= a <= 17.95294
  94.      0.85245 <= b <= 1.12153
  95.      0.56792 <= r <= 0.70234
  96.  
  97. Regression of X on Y
  98.  Intercept        a = 3.81650
  99.  Slope            b = 0.41500
  100.  Correlation      r = 0.64000
  101.  Explained SS   ESS = 8436.98586
  102.  Residual SS    RSS = 12161.12414
  103.  Std error       SE = 6.38820
  104.             F-ratio = 206.74255
  105.                  p <= 0.00000
  106.  
  107.     95% Confidence Intervals
  108.      3.09361 <= a <= 4.53939
  109.      0.32776 <= b <= 0.50224
  110.      0.56792 <= r <= 0.70234
  111.  
  112. Estimated Values
  113. For the model, Y' = a + bX
  114.  X  = 27.00000
  115.  Y' = 43.48680
  116.        95% Interval for Mean
  117.     41.87035 <= Y' <= 45.10324
  118. 95% Interval for Individual Value
  119.     24.10995 <= Y' <= 62.86364
  120.  
  121. For the model, Y' = a + bX
  122.  X  = 11.00000
  123.  Y' = 27.69499
  124.        95% Interval for Mean
  125.     26.20924 <= Y' <= 29.18073
  126. 95% Interval for Individual Value
  127.      8.32861 <= Y' <= 47.06137
  128.  
  129.  
  130.                        MULTIPLE REGRESSION
  131.  
  132.   As indicated above, the multiple regression procedure allows
  133. you to enter two independent variables and one dependent
  134. variable.  Once you have obtained your fitted model, you may
  135. elect to produce estimated values of your dependent variable, Y',
  136. for values of X1 and X2 that you wish to enter.
  137.  
  138.   The following is a sample of the output generated by the
  139. multiple regression procedure.
  140.  
  141. Summary Data
  142.  Mean of Y  = 25.00000
  143.  Mean of X1 = 47.00000
  144.  Mean of X2 = 83.00000
  145.  SD of Y    = 11.00000
  146.  SD of X1   = 21.00000
  147.  SD of X2   = 28.00000
  148.  
  149.  N          = 290
  150.  Sum y^2    = 34969.00000
  151.  Sum x1^2   = 127449.00000
  152.  Sum x2^2   = 226576.00000
  153.  
  154.  Sum yx1    = 22698.06000
  155.  Sum yx2    = 37385.04000
  156.  Sum x1x2   = 28888.44000
  157.  
  158.  Multiple R = 0.50069
  159.  R-Square   = 0.25069
  160.  r(y,x1)    = 0.34000
  161.  r(y,x1)^2  = 0.11560
  162.  r(y,x2)    = 0.42000
  163.  r(y,x2)^2  = 0.17640
  164.  r(x1,x2)   = 0.17000
  165.  r(x1,x2)^2 = 0.02890
  166.  F = 96.35516    p <= 0.0000
  167.  
  168. Semi-partial & partial correlations
  169.  sr(y,x1)    = 0.27257
  170.  sr(y,x1)^2  = 0.07429
  171.  sr(y,x2)    = 0.36755
  172.  sr(y,x2)^2  = 0.13509
  173.  pr(y,x1)    = 0.30034
  174.  pr(y,x1)^2  = 0.09021
  175.  pr(y,x2)    = 0.39083
  176.  pr(y,x2)^2  = 0.15275
  177.  
  178. Raw Score Model
  179.       a = 6.02875
  180.      b1 = 0.14488
  181.      b2 = 0.14653
  182.  
  183. Standardized Model
  184.  Beta 1 = 0.27659
  185.  Beta 2 = 0.37298
  186.  
  187. 95 Percent Confidence Intervals
  188.    0.40877 <=     R    <= 0.58256
  189.    0.23379 <= r( y,x1) <= 0.43819
  190.    0.32013 <= r( y,x2) <= 0.51064
  191.    0.05571 <= r(x1,x2) <= 0.27989
  192.    0.16209 <=    sr1   <= 0.37629
  193.    0.26315 <=    sr2   <= 0.46344
  194.    0.19140 <=    pr1   <= 0.40197
  195.    0.28827 <=    pr2   <= 0.48453
  196.  
  197.  ssy        = 34969.00000
  198.  ssy'       = 8766.48451
  199.  ssx1       = 2597.95291
  200.  ssx2       = 4724.06811
  201.  sse        = 26202.51549
  202.  
  203.  Std Err y  = 9.55500
  204.      SE b1  = 0.05630
  205.      SE b2  = 0.05433
  206.  
  207.    4.92901 <=    a1    <= 7.12848
  208.    0.08708 <=    b1    <= 0.20269
  209.    0.10469 <=    b2    <= 0.18836
  210.  
  211. Estimated Values
  212. For the model Y'= a + b1X1 +b2X2
  213. X1 = 37.00000
  214. X2 = 44.00000
  215. Y' = 17.83660
  216.  
  217. For the model Y'= a + b1X1 +b2X2
  218. X1 = 57.00000
  219. X2 = 69.00000
  220. Y' = 24.39744
  221.  
  222.  
  223.                          END OF CHAPTER
  224.