home *** CD-ROM | disk | FTP | other *** search
/ Hall of Fame / HallofFameCDROM.cdr / data1 / modstat2.lzh / STATIST.TXT < prev    next >
Text File  |  1990-04-21  |  44KB  |  1,168 lines

  1.  
  2.  
  3.  
  4.                 YOUR MODERN MICROCOMPUTERS' STATISTICS LICENSE
  5.  
  6. Even though the program is shareware, and can be freely copied, there are 
  7. still some limitations to protect the quality of the distribution of the 
  8. program and to support future development.
  9.  
  10. Users of MODERN MICROCOMPUTERS' STATISTICAL software may make copies of
  11. this program for trial use by others on a PRIVATE NON-COMMERCIAL BASIS.
  12.  
  13. By accepting and using this software, you acknowledge that this software 
  14. may not suit your particular requirements or be completely trouble-free.
  15.  
  16. With proper application, this software will perform as described.  However, 
  17. MODERN MICROCOMPUTERS is not responsible for your specific application or 
  18. any problems resulting from use of this software.
  19.  
  20. If the software does not perform as described, our liability to you is 
  21. limited to replacing the software or refunding the purchase price (if pur
  22. chased and registered).  We have no liability to you or any other person or 
  23. entity for any damage or loss, including special, incidental, or consequen
  24. tial damages, caused by this software, directly or indirectly.  Some states 
  25. do not allow the limitation or exclusion of liability for incidental or con
  26. sequential damages, so the above limitation or exclusion may not apply to 
  27. you.
  28.  
  29. This Agreement is governed by the laws of the State of New York.  Should any 
  30. part of this agreement be held invalid, the remainder of the Agreement will 
  31. still be in effect.  This Agreement can only be modified by written state
  32. ment signed by MODERN MICROCOMPUTERS.
  33.  
  34. Under this license, you may NOT:
  35.  
  36. 1)   Distribute the program in connection with any other product or service, 
  37.      or as part of a corporate or institutionally sponsored distribution.  
  38.      Site licenses and bundling agreements are available upon request.
  39. 2)   Charge anything for these MODERN MICROCOMPUTERS' programs.  An excep-
  40.      tion is made for registered user groups who may charge a cost-based
  41.      fee (not to exceed $10) to cover their own costs.
  42. 3)   Distribute the program in modified form.
  43. 4)   Copy or reproduce the printed documentation in any form.
  44.  
  45.                            THE SHAREWARE CONCEPT
  46.  
  47. MODERN MICROCOMPUTERS' STATISTICS is distributed through a unique marketing 
  48. approach called shareware.  The diskette with programs on it can be freely 
  49. copied and shared.  It is also available from us, MODERN MICROCOMPUTERS, for 
  50. $15.00.  We ask you to help us distribute MODERN MICROCOMPUTERS' MODSTAT2   
  51. by sharing unmodified copies of the diskette with others.  We also encourage
  52. you and those to whom you have distributed the program to register your copy.
  53. Registration has a number of benefits to you: 
  54.  
  55. 1) You will receive the latest copy of the programs, including all recent 
  56.    updates, and additions.
  57. 2) Automatic notice of future updates and additions.
  58. 3) You will be supporting the concept that allowed you to receive MODERN 
  59.    MICROCOMPUTERS' MODSTAT2 in the first place.  Only through user support 
  60.    can be continue to improve MODERN MICROCOMPUTERS' MODSTAT2 and perhaps 
  61.    develop other products.
  62.  
  63.  
  64.  
  65.  
  66.  
  67.  
  68.  
  69.  
  70. Only by supporting the program's authors who release valuable programs as 
  71. shareware can you encourage others to do the same.
  72.  
  73. NO-QUIBBLE LICENSE AGREEMENT
  74.  
  75. YOU ARE IMPORTANT TO US AS A CUSTOMER AND WE RESPECT YOUR NEEDS
  76.  
  77. We know that it's extremely important to you that our software be easy to 
  78. use, and so our disks contain only standard unprotected files with no 
  79. 'fingerprints' and requiring no special installation routines.  This means 
  80. that you can install our files on hard disks with no fear of future 
  81. problems.
  82.  
  83. Our only concession to copy protection is that our program code is encrypted 
  84. with serial number and/or user's name which appears on the screen and makes 
  85. each disk traceable.
  86.  
  87. Our software license restriction is essentially that each licensed copy of 
  88. the software must be used on ONLY ONE COMPUTER AT A TIME.
  89.  
  90. BY USING THIS SOFTWARE YOU INDICATE YOUR ACCEPTANCE OF THE THIS SOFTWARE 
  91. LICENSING AGREEMENT.
  92.  
  93.                                                                           
  94.                                                                           
  95.            
  96.  
  97. We hope you will find the program useful and will support the shareware 
  98. concept by registering your copy with us.  Please use the registration form 
  99. on the next page.
  100.  
  101. In the event that the REGISTRATION FORM is missing, you can receive one from 
  102. us by writing to:
  103.                     MODERN MICROCOMPUTERS
  104.                     63 Sudbury Lane
  105.                     Westbury, New York  11590
  106.  
  107. or by calling:      (516) 333-9178
  108.  
  109. There is no charge for the registration form.  Even if you do not decide to 
  110. send in the $15.00 purchase cost, you should register your copy with us.  
  111. We only want those who find the program useful to purchase it.  We 
  112. appreciate your passing of the programs on to friends and fellow workers.
  113.  
  114. SYSTEM REQUIREMENTS:
  115.  
  116.      IBM PC/XT/AT OR IBM COMPATIBLE computer with hard disk.
  117.      MS-DOS 2.1 (PC-DOS 2.1) or higher.
  118.      256K RANDOM ACCESS MEMORY
  119.  
  120.  
  121.  
  122.  
  123.  
  124.  
  125.  
  126.  
  127.  
  128.  
  129.  
  130.  
  131.  
  132.  
  133.  
  134.  
  135.  
  136.                              REGISTRATION FORM
  137.                              -----------------
  138.  
  139. If you purchased MODERN MICROCOMPUTERS' MODSTAT2 directly from MODERN 
  140. MICROCOMPUTERS in your own name, then your copy is already registered and 
  141. you will receive all the benefits of registration.  You do not need to send 
  142. in a registration form.
  143.  
  144. If you received MODERN MICROCOMPUTERS' MODSTAT2 some other way, you may 
  145. register your copy by filling out the following form and mailing it to the 
  146. listed address along with $15.00.  You will promptly receive the latest 
  147. version of MODERN MICROCOMPUTERS' MODSTAT2 along with a special software
  148. disk containing a series of financial programs.  We will also place you on
  149. our update list so that you will automatically be notified of any changes 
  150. to the programs.
  151.  
  152. Once your copy of MODERN MICROCOMPUTERS' MODSTAT2 is registered, you will
  153. be entitled to unlimited telephone support bye calling (516) 333-9178 
  154. during business hours (10:00 am - 3:00 p.m. New York time).
  155.  
  156. In addition, you will be supporting software distributed under the shareware 
  157. concept and will be contributing to the further development of MODERN 
  158. MICROCOMPUTERS' MODSTAT2 and other shareware products.
  159.  
  160. Mail To:
  161.  
  162. MODERN MICROCOMPUTERS
  163. 63 Sudbury Lane
  164. Westbury, N.Y.  11590
  165.  
  166.  
  167. NAME ______________________________________________
  168.  
  169. COMPANY ___________________________________________
  170.  
  171. ADDRESS ___________________________________________
  172.  
  173. CITY/STATE ________________________________________
  174.  
  175. ZIP ______________________________
  176.  
  177.  
  178. How did you first learn about MODERN MICROCOMPUTERS' MODSTAT2 or where
  179. did you first obtain a copy of MODERN MICROCOMPUTERS' MODSTAT2?
  180.  
  181. _________________________________________________________________________
  182.  
  183. _________________________________________________________________________
  184.  
  185. _________________________________________________________________________
  186.  
  187. What additional programs would you like to see developed? _______________
  188.  
  189. _________________________________________________________________________
  190.  
  191. _________________________________________________________________________
  192.  
  193.  
  194.  
  195.  
  196.  
  197.  
  198.  
  199.  
  200.  
  201.  
  202. THIS IS THE MODERN MICROCOMPUTERS' STATISTICAL SOFTWARE
  203.  
  204.     These programs were developed during the teaching of various courses
  205. in statistics at the university level by Dr. Robert C. Knodt.  Their 
  206. development was the direct result of work instituted to make statistics
  207. a more understandable and usable subject.
  208.  
  209.     Early in my work with statistics I realized that almost any student can
  210. learn to apply the statistical tests and successfully complete the
  211. mathematics necessary to arrive at the correct answer to any of these tests.
  212. What proved to be the biggest problem that the students had revolved around
  213. the problem of selecting the correct statistical test to meet the proposed
  214. investigation.  With this in mind the first program was developed.  The aim
  215. of the program is to help in the selection of the proper statistical test.
  216. This program is called 'FIND' is the first one listed on the first menu.
  217.  
  218.     FIND allows the investigator to answer some simple questions and the
  219. program will indicate the correct statistical test.  In addition, the
  220. program will then branch to that test so that the investigator can
  221. immediately perform the test.
  222.  
  223.     Over the course of years the various programs increased in number so 
  224. that today there are over 40 programs in the package.  Of course, not all
  225. will be needed by any one investigator, but they do cover a wide range of 
  226. situations.
  227.  
  228.     These programs are not strictly free.  The author, Dr. Knodt, requests
  229. that you send the registration form along with $15.00 to cover the costs
  230. of the development of these programs and the development of future programs.
  231.  
  232.     If you find these programs useful, $15.00 is a small price for the 
  233. collection of programs.  Your donation will allow the author to continue
  234. developing programs of this and other types.  
  235.  
  236.     As a registered user you will be kept up-to-date on any future programs
  237. and will be offered them at comparably low prices.
  238.  
  239.     Please send your donation to:  
  240.                       MODERN MICROCOMPUTERS
  241.                       Dr. Robert Knodt
  242.                       63 Sudbury Lane
  243.                       Westbury, N.Y.  11590
  244.  
  245.     If you experience any difficulty or find that you need any personal
  246. help in your investigations or the analysis of data from you investigations,
  247. please do not hesitate to call (516) 333-9178 from 10:00 a.m. to 3:00 p.m.
  248. New York time.  Dr. Knodt will make every effort to help.
  249.  
  250.     THE SHAREWARE CONCEPT ALLOWS THE DEVELOPMENT OF POWERFUL, USEFUL,
  251.     AND HIGHLY AFFORDABLE COMPUTER SOFTWARE.  SUPPORT THE CONCEPT.
  252.  
  253.          REGISTER AND SEND YOUR $15.00 TODAY.
  254.  
  255.  
  256.  
  257.  
  258.  
  259.  
  260.  
  261.  
  262.  
  263.  
  264.  
  265.  
  266.  
  267.  
  268.      The group of statistical tests called MODSTAT2 include the following 
  269. tests.
  270.  
  271. * ONE-WAY ANALYSIS OF VARIANCE BETWEEN GROUPS FOLLOWED BY t-TESTS.
  272.           (Up to seven groups - any number in a group)
  273.  
  274.      One of the best tests, if not the best, for determining of there is a 
  275. significant difference between groups.  There should only be one independent 
  276. variable involved.
  277.      The test assumes that the scores are from a population with a normal 
  278. distribution but studies have shown that this requirement can be violated to 
  279. a great extent without altering the outcome of the analysis.  The test 
  280. produces  a summary table and gives the F value as well as the significance 
  281. of that value.  The degrees of freedom are taken from the table as the 
  282. degrees of freedom of the between variable and the degrees of freedom of the 
  283. within variable.  You can check the significance level in the F-table using 
  284. these degrees of freedom but the program gives you the exact value.  
  285.      The program then shows the t-test values for each group compared to 
  286. each other group.  The mean and standard deviation of each group is also 
  287. displayed.  The test can be used for comparing two groups and gives the F 
  288. value which, in that case, is the Z score (or for small groups, the t-test) 
  289. squared.
  290.      Most statistics books give the computational method but many do not 
  291. stress the value and ease of the test.  Usually the t-test is emphasized for 
  292. comparing two groups and the ANOVA (ANalysis Of VAriance) tests left for 
  293. later in the course work.  In all probability, the ANOVA should be taught 
  294. first since it includes the t-test calculations.
  295.      In most other ANOVA tests the number of subjects in each group must be 
  296. equal but this is not the case for the One-Way ANOVA.  You can test up to 7 
  297. groups and have unequal numbers in each group.
  298.      The first basic assumption is that the scores must be from a genuine 
  299. interval scale, that is, each score should be equal distant from the next 
  300. score.  For example the distance from 84 to 85 should be the same as the 
  301. distance from 23 to 24.
  302.      The second assumption is that the scores must be normally distributed 
  303. in the population.  As noted above, this assumption can be violated to a 
  304. great extent without changing the conclusions of the test.
  305.      The third assumption is that the variance in the groups must be 
  306. homogeneous.  This assumption can also be violated to a great extent.
  307.      There are some tests that have been developed to determine non-normalcy 
  308. and heterogeneity of variance but most of them are less robust than the 
  309. ANOVA and many are themselves more susceptible to distortion than the ANOVA.  
  310. Most are also tedious and time-consuming to perform.
  311.  
  312. Hamberg, Morris, Basic Statistics: A Modern Approach.  New York:  Harcourt 
  313. Brace Jovanovich, Inc., 1974
  314.  
  315. Snedecor, George W., Statistical Methods., 4th Ed.,  Ames, Iowa: The Iowa 
  316. State College Press, 1946
  317.  
  318.  
  319.  
  320.  
  321.  
  322.  
  323.  
  324.  
  325.  
  326.  
  327.  
  328.  
  329.  
  330.  
  331.  
  332.  
  333.  
  334. * TWO-WAY ANALYSIS OF VARIANCE BETWEEN GROUPS
  335.          (Up to 9 levels of each variable)
  336.  
  337.      The same assumptions exist for this test as exist for the One-Way ANOVA 
  338. with the added condition that you must have equal numbers of scores in each 
  339. condition of the test.
  340.      The test is used when you have a between subjects design and two 
  341. independent variables.
  342.      The program produces the summary table, shows all F scores and shows 
  343. the significant level of each F score.  The degrees of freedom are the 
  344. degrees of freedom for the item in question and the degrees of freedom for 
  345. the error factor.  The main effects of Variable A and Variable B are 
  346. evaluated and the interaction of Variable A with Variable B (AxB) is shown.
  347.      In the event that only one score is tabled per test condition then the 
  348. error term is not shown and all F scores are calculated by dividing by the 
  349. mean square value of the triple interaction term.  If more than one score is 
  350. entered under each test condition, the error term is shown and F scores are 
  351. calculated using the mean square value of the error term.
  352.      All summary totals are shown and the average of scores in each cell are 
  353. shown.  These averages can be used when doing the Turkey's (a) test.  For 
  354. information on this test refer to:
  355. Cicchetti, Dominic V.  Extensions of multiple-range tests to interaction 
  356. tables in the analysis of variance:  A rapid approximate solution.  
  357. Psychological Bulletin, 1972, 77, 405-408.
  358.  
  359. McNemar, Quinn, Psychological Statistics.  New York: John Wiley & sons., 
  360. Inc., 1949.
  361.  
  362. Richmond, Samuel B., Statistical Analysis.  New York: The Ronald Press 
  363. Company, 1964.
  364.  
  365.  
  366.  
  367. * THREE-WAY ANALYSIS OF VARIANCE BETWEEN GROUPS
  368.         (Up to 4 levels of each variable)
  369.  
  370.      This analysis also requires an equal number of scores in each condition 
  371. of the test.  The summary table is shown along with all the significant 
  372. levels for the F values shown.
  373.      In the event that only one score is tabled per test condition then the 
  374. error term is not shown and all F scores are calculated by dividing by the 
  375. mean square value of the triple interaction term.  If more than one score is 
  376. entered under each test condition, the error term is shown and F scores are 
  377. calculated using the mean square value of the error term.
  378.  
  379. Linton, Marigold, and Philip S. Gallo, The Practical Statistician.  
  380. Monterey, California: Brooks/Cole Publishing Co., 1975.
  381.  
  382. McNemar, Quinn, Psychological Statistics.  New York: John Wiley & sons., 
  383. Inc., 1949.
  384.  
  385. Snedecor, George W., Statistical Methods., 4th Ed.,  Ames, Iowa: The Iowa 
  386. State College Press, 1946.
  387.  
  388.  
  389.  
  390.  
  391.  
  392.  
  393.  
  394.  
  395.  
  396.  
  397.  
  398.  
  399.  
  400. * ONE WAY-ANALYSIS OF VARIANCE WITHIN GROUPS FOLLOWED BY CORRELATED t-TESTS
  401. * TWO-WAY ANALYSIS OF VARIANCE WITHIN GROUPS
  402. * THREE-WAY ANALYSIS OF VARIANCE WITHIN GROUPS
  403.  
  404.      These tests are similar to the ANOVA for between groups but involve 
  405. investigations involving a within groups situation.  This type of test 
  406. involves tested the same individuals more than once.  It can be used as a 
  407. before and after investigation.  Each individual is tested once under each 
  408. of the conditions.
  409.      With the one-way ANOVA after the completion of the summary table for 
  410. the ANOVA you can do a correlated t-test between any two of the test 
  411. conditions.
  412.  
  413. Edwards, Allen L., Experimental Design in Psychological Research.  New York: 
  414. Holt, Rinehard and Winston, Inc., 1968.
  415. (Please note that the example in Edwards listed as a between ANOVA is 
  416. actually the within ANOVA.)
  417.  
  418. Linton, Marigold, and Philip S. Gallo, The Practical Statistician.  
  419. Monterey, California: Brooks/Cole Publishing Co., 1975.
  420.  
  421.  
  422.  
  423.  
  424.  
  425. * ANALYSIS OF VARIANCE MIXED DESIGN TWO FACTOR BETWEEN-WITHIN
  426. * ANALYSIS OF VARIANCE MIXED DESIGN THREE FACTOR BETWEEN-BETWEEN-WITHIN
  427. * ANALYSIS OF VARIANCE MIXED DESIGN THREE FACTOR BETWEEN-WITHIN-WITHIN
  428.  
  429.      These tests involve a mixed design ANOVA.  There are three tests of 
  430. which the two factor design is the most often used.  The subjects are 
  431. usually divided into groups and each individual is tested under a number of 
  432. conditions.  The test allows for an analysis of both the between groups and 
  433. the within groups.
  434.  
  435.      The other two tests involve either the between group factor or the 
  436. within group factor to be compared to two of the other type factor.  In all 
  437. cases the subjects are tested under various conditions.
  438.  
  439. Linton, Marigold, and Philip S. Gallo, The Practical Statistician.  
  440. Monterey, California: Brooks/Cole Publishing Co., 1975.
  441.  
  442. Snedecor, George W., Statistical Methods., 4th Ed.,  Ames, Iowa: The Iowa 
  443. State College Press, 1946.
  444.  
  445. Edwards, Allen L., Experimental Design in Psychological Research.  New York: 
  446. Holt, Rinehard and Winston, Inc., 1968.
  447.  
  448. * ANALYSIS OF VARIANCE LATIN SQUARE DESIGN, 3x3, 4x4, 5x5
  449.  
  450.      This program handles three different sized Latin square designs.  You 
  451. indicate where in the design each individual tested is located and the 
  452. program does the complete ANOVA.  The significance level of the calculated F 
  453. score is shown.
  454.  
  455. Edwards, Allen L., Experimental Design in Psychological Research.  New York: 
  456. Holt, Rinehard and Winston, Inc., 1968.
  457.  
  458.  
  459.  
  460.  
  461.  
  462.  
  463.  
  464.  
  465.  
  466. * ONE-WAY CHI SQUARE ANALYSIS
  467. * TWO-WAY CHI SQUARE ANALYSIS 2x2 USING YATES CORRECTION FACTOR
  468. * FISHER'S EXACT PROBABILITY TEST FOR 2x2 TABLE WITH SMALL VALUES
  469. * TWO-WAY CHI SQUARE ANALYSIS AxB
  470. * THREE-WAY CHI SQUARE ANALYSIS 2x2x2
  471. * THREE-WAY CHI SQUARE ANALYSIS AxBxC
  472.  
  473.      Although the Chi Square analysis is one of the most often used non-
  474. parametric tests, it is possible to select the incorrect test for your data.  
  475. You are advised to use the FIND program which is choice 1 on the first menu 
  476. to make sure you have selected the correct Chi Square test.
  477.      The Yates correction factor is used wherever necessary and if the 2x2 
  478. analysis has limited numbers in each cell of the table, you are offered the 
  479. option of running the Fisher's exact probability test as an alternative.
  480.      All these tests assume a between subjects analysis.
  481.  
  482.  
  483.  
  484.  
  485. * REPEATED MEASURES CHI SQUARE ANALYSIS
  486. * McNEMAR'S CHI SQUARE ANALYSIS OF CHANGES
  487.  
  488.      These two Chi Square tests are used when you have a within subjects or 
  489. a mixed design analysis.
  490.  
  491. Boker, A. H., A test for symmetry in contingency tables.  J. American 
  492. Statistical Association, 43, 1948.
  493.  
  494. Linton, Marigold, and Philip S. Gallo, The Practical Statistician.  
  495. Monterey, California: Brooks/Cole Publishing Co., 1975.
  496.  
  497. McNemar, Quinn, Psychological Statistics, 2nd Ed.  New York: John Wiley & 
  498. Sons Inc., 1955.
  499.  
  500. Siegel, Sidney, Nonparametric Statistics for the Behavioral Sciences.  New 
  501. York: McGraw-Hill Book Company, 1956.
  502.  
  503.  
  504. * THE SIGN TEST
  505.  
  506.      The sign tests gets its name from the fact that is uses plus or minus 
  507. signs rather than quantitative measures as its data.  You can either enter 
  508. the raw data or a summary of the data indicating only the number of 
  509. individuals who changed in each direction.  The test is based on the 
  510. binomial distribution.  The significance level is shown.  
  511.      A more detailed test is the Wilcoxon match-pairs signed-ranks test.
  512.  
  513. Siegel, Sidney, Nonparametric Statistics for the Behavioral Sciences.  New 
  514. York: McGraw-Hill Book Company, 1956.
  515.  
  516. McNemar, Quinn, Psychological Statistics, 2nd Ed.  New York: John Wiley & 
  517. Sons Inc., 1955.
  518.  
  519.  
  520.  
  521.  
  522.  
  523.  
  524.  
  525.  
  526.  
  527.  
  528.  
  529.  
  530.  
  531.  
  532. * WILCOXIN RANK-SUMS TEST
  533.  
  534.      This test utilizes information about the direction and magnitude of the 
  535. differences between the scores of individuals over time.  
  536.      If only the direction of the change is known, then the proper test is 
  537. the Sign test.
  538.      The idea of using rank values in place of the measurements themselves 
  539. for the purpose of significance tests came from Professor Spearman in 1904.
  540.  
  541. Mood, A. M., Introduction to the theory of statistics.  New York:  McGraw-
  542. Hill Book Company, 1950.
  543.  
  544. Siegel, Sidney, Nonparametric Statistics for the Behavioral Sciences.  New 
  545. York: McGraw-Hill Book Company, 1956.
  546.  
  547. Spearman, C., American Journal of Psychology, 15:88, 1904.
  548.  
  549. Wilcoxon, F., Individual comparisons by ranking methods.  Biometrics 
  550. Bulletin, 1, 1945.
  551.  
  552. Wilcoxon, F., Probability tables for individual comparisons by ranking 
  553. methods.  Biometrics Bulletin, 3, 1947.
  554.  
  555.  
  556. * KRUSKAL WALLIS ONE-WAY ANALYSIS OF VARIANCE BY RANKS
  557.  
  558.      This test extends the range of Wilcoxon's Sum of Ranks Test to cases 
  559. where there are more than two sets of measurements.  The test uses the Chi 
  560. Square distribution.
  561.      This test determines whether k independent samples are from different 
  562. populations.
  563.  
  564. Langley, Russell, Practical Statistics Simply Explained.  New York: Dover 
  565. Publications, Inc., 1970
  566.  
  567. Siegel, Sidney, Nonparametric Statistics for the Behavioral Sciences.  New 
  568. York: McGraw-Hill Book Company, 1956.
  569.  
  570. Kruskal, W. H. and W. A. Wallis, Use of ranks in one-criterion variance 
  571. analysis.  Journal of the American Statistical Association, 47, 1952.
  572.  
  573.  
  574.  
  575. * FRIEDMAN'S TEST
  576.  
  577.      This test compares three or more random samples which are matched.  The 
  578. test involves ranking each set of matched measurements.
  579.  
  580. Friedman, Milton, Journal of the American Statistical Association, 1937.
  581.  
  582. Siegel, Sidney, Nonparametric Statistics for the Behavioral Sciences.  New 
  583. York: McGraw-Hill Book Company, 1956.
  584.  
  585.  
  586.  
  587.  
  588.  
  589.  
  590.  
  591.  
  592.  
  593.  
  594.  
  595.  
  596.  
  597.  
  598. * PEARSON PRODUCT-MOMENT CORRELATION AND REGRESSION ANALYSIS
  599.     Single and multiple regression - Curvilinear regression
  600.  
  601.      These programs allow you to work with either simple or multiple 
  602. regression analysis.
  603.  
  604.     For a simple regression analysis the program first uses the least 
  605. squares method and calculates the regression equation, coefficient of 
  606. correlation 'R' value and the standard error of the estimate.  It will also 
  607. evaluate if the 'R' value is significantly different from zero by 
  608. calculating either the t-value or the Z value, and finally, it will allow 
  609. you to make estimates of the dependent variable from the independent 
  610. variable(s).
  611.      The program then offers you the ability to check for a curvilinear 
  612. regression fit using the same data.  At the completion of the analysis the 
  613. program will indicate the F value for divergence from the linear 
  614. relationship and evaluate the significance of the F value.
  615.      If the F value is significant you will be shown the significance level 
  616. of the correlation coefficient and finally offered the ability to make 
  617. estimates of the dependent variable from various independent values.
  618.      If the F value is non-significant you are returned to the linear 
  619. section and offered the opportunity to do estimates.
  620.      The range of the conditional mean is shown as well as the individual 
  621. range of the predicted dependent variable.
  622.      If you select to do a multiple regression the data will be analyzed 
  623. using two entered independent variables associated with the dependent 
  624. variable.  You are shown the level of significance and given the opportunity 
  625. to make estimates of the dependent variable based on entering various 
  626. combinations of the dependent variables.
  627.      All data is saved in a file.  For single linear regression data you can 
  628. try the data as in choice 2 of the menu to see if you get a better fit as 
  629. exponential, logarithmic or as a power fit.  If you data doesn't match the 
  630. input data limitations of these tests you will receive an error message.
  631.  
  632.      This basic method of curve fitting is attributed to Karl Pearson and a 
  633. much more complete analysis of this method can be found in the text, 
  634. Statistical Methods by George W. Snedecor. 
  635.  
  636. Snedecor, George W., Statistical Methods., 4th Ed.,  Ames, Iowa: The Iowa 
  637.      State College Press, 1946.
  638.  
  639. Poole, Lon, Mary Borchers, and David M. Castlewitz, Some Common Basic 
  640.      Programs, Apple II Edition, Berkeley, California: Osborne/McGraw-Hill, 
  641.      1981.
  642.  
  643. McElroy, Elam E., Applied Business Statistics, 2nd Ed., San Francisco, 
  644.      California:  Holden-Day, Inc., 1979.
  645.  
  646.  
  647.  
  648.  
  649.  
  650.  
  651.  
  652.  
  653.  
  654.  
  655.  
  656.  
  657.  
  658.  
  659.  
  660.  
  661.  
  662.  
  663.  
  664. * REGRESSION ANALYSIS EXPONENTIAL
  665. * REGRESSION ANALYSIS LOGARITHMIC
  666. * REGRESSION ANALYSIS POWER
  667.  
  668.      These methods calculate the regression equation when the dependent 
  669. variable is related to the independent variable in various fashions.
  670.      When attempting an exponential analysis the dependent variable must be 
  671. greater than zero.  When attempting a logarithmic fit the independent 
  672. variable must be greater than zero and when attempting a power curve fit, 
  673. both variables must be greater than zero.
  674.      The program shows the coefficient of determination, the calculated 'A' 
  675. and 'B' values, the regression equation and allows you to make estimates of 
  676. the dependent variable from the independent variable.
  677.      All data is saved in a file so it is possible to try all three curve 
  678. fits as well as a linear and curvilinear fit without having to re-enter the 
  679. data.
  680.  
  681. Hewlett-Packard Company, HP-67 Standard Pac, Cupertino, California
  682.  
  683.  
  684.  
  685. * SPEARMAN RANK CORRELATION COEFFICIENT
  686.  
  687.      Of all the statistics based on ranks, the Spearman rank correlation 
  688. coefficient was the earliest to be developed and is perhaps the best known 
  689. today.  This statistic is referred to as 'rho'.
  690. Both variables must be measured in at least an ordinal scale so that the 
  691. objects or individuals under study may be ranked in two ordered series.
  692.  
  693. Siegel, Sidney, Nonparametric Statistics for the Behavioral Sciences.  New 
  694. York: McGraw-Hill Book Company, 1956.
  695.  
  696. Spearman, C., American Journal of Psychology, 15:88, 1904.
  697.  
  698.  
  699.  
  700. * POINT-BISERIAL CORRELATION
  701.  
  702.      If one variable is graduated and yields an approximately normal 
  703. distribution and the other is dichotomized, then if we can assume that the 
  704. underlying dichotomized trait is continuous and normal, then we can obtain a 
  705. correlation measure which constitutes an estimate as to what the product 
  706. moment 'r' would be if both variables were in graduated form.
  707.  
  708. Bernstein, Allen L., A Handbook of Statistics Solutions for the Behavioral 
  709. Sciences.  New York: Holt, Rinehart and Winston, Inc., 1964
  710.  
  711. McNemar, Quinn, Psychological Statistics.  New York: John Wiley & sons., 
  712. Inc., 1949.
  713.  
  714.  
  715.  
  716.  
  717.  
  718.  
  719.  
  720.  
  721.  
  722.  
  723.  
  724.  
  725.  
  726.  
  727.  
  728.  
  729.  
  730. * KENDALL'S RANK ORDER CORRELATION
  731.  
  732.      The Kendall rank correlation coefficient, tau, is suitable as a measure 
  733. of correlation when you have rank values for the X and Y variables.
  734.      It is possible, although the program is not included in this set, to 
  735. generalize to a partial correlation coefficient.
  736.  
  737. Siegel, Sidney, Nonparametric Statistics for the Behavioral Sciences.  New 
  738. York: McGraw-Hill Book Company, 1956.
  739.  
  740. Kendall, M. G., Rank Correlation Methods.  London: Griffin Press, 1948.
  741.  
  742.  
  743.  
  744. * KENDALL'S COEFFICIENT OF CONCORDANCE
  745.  
  746.      When you have k sets of rankings of N objects or individuals it is 
  747. possible to determine the association among them by using the Kendall 
  748. coefficient of concordance, W.
  749.  
  750. Friedman, M., A comparison of alternative tests of significance for the 
  751. problem of m rankings.  Annual Mathematical Statistician, 11, 1940.
  752.  
  753. Kendall, M. G., Rank Correlation Methods.  London: Griffin Press, 1948.
  754.  
  755.  
  756.  
  757. * PARTIAL CORRELATION ANALYSIS
  758.  
  759.      This technique is used to asses the relationships between two variables 
  760. when another variable's relationship with the initial two has been held 
  761. constant or "partialed out."
  762.  
  763. Popham, W. James, Educational Statistics, Use and Interpretation.  New York:  
  764. Harper & Row, Publishers, 1967.
  765.  
  766. Richmond, Samuel B., Statistical Analysis.  New York: The Ronald Press 
  767. Company, 1964.
  768.  
  769.  
  770. * MULTIPLE CORRELATION ANALYSIS
  771.  
  772.      It is possible to use this program to determine the extent of the 
  773. relationship between one variable and a combination of two or more other 
  774. variables considered simultaneously.
  775.  
  776. Popham, W. James, Educational Statistics, Use and Interpretation.  New York:  
  777. Harper & Row, Publishers, 1967.
  778.  
  779. Richmond, Samuel B., Statistical Analysis.  New York: The Ronald Press 
  780. Company, 1964.
  781.  
  782. Snedecor, George W., Statistical Methods., 4th Ed.,  Ames, Iowa: The Iowa 
  783. State College Press, 1946.
  784.  
  785.  
  786.  
  787.  
  788.  
  789.  
  790.  
  791.  
  792.  
  793.  
  794.  
  795.  
  796. * DETERMINE THE DIFFERENCE BETWEEN TWO CORRELATIONS
  797.  
  798.      This will determine if the correlation coefficient computed for one 
  799. sample is significantly different than the correlation coefficient computed 
  800. for a second sample.
  801.  
  802. Richmond, Samuel B., Statistical Analysis.  New York: The Ronald Press 
  803. Company, 1964.
  804.  
  805.  
  806.  
  807. * COVARIANCE WITH ONE VARIABLE
  808. * COVARIANCE WITH TWO VARIABLES
  809.  
  810.      In a single-classification analysis of covariance model there is one 
  811. dependent variable, one independent variable and at least one control 
  812. variable.  There may be several control variables which can be employed if 
  813. the researcher feels that they are strongly related to the dependent 
  814. variable in the study.  This design can statistically compensate for 
  815. differences between the independent variable groups with respect to the 
  816. control variables.
  817.  
  818.  
  819. Edwards, Allen L., Experimental Design in Psychological Research.  New York: 
  820. Holt, Rinehard and Winston, Inc., 1968.
  821.  
  822. Popham, W. James, Educational Statistics, Use and Interpretation.  New York:  
  823. Harper & Row, Publishers, 1967.
  824.  
  825. Snedecor, George W., Statistical Methods., 4th Ed.,  Ames, Iowa: The Iowa 
  826. State College Press, 1946.
  827.  
  828.  
  829. * ETA TEST FOR USE AFTER ONE-WAY ANALYSIS OF VARIANCE
  830.  
  831.      The eta test performed after a one-way ANOVA  can tell how much 
  832. (percentage) of the variance was accounted for by the conditions of the 
  833. test.
  834.  
  835. Linton, Marigold, and Gallo, Philip S., The Practical Statistician.  
  836. Monterey, California: Brooks/Cole Publishing Co., 1975.
  837.  
  838. McNemar, Quinn, Psychological Statistics.  New York: John Wiley & sons., 
  839.      Inc., 1949.
  840.  
  841. * ETA TEST FOR USE AFTER RANK-SUMS OR KRUSKAL TEST
  842.  
  843.      This test is similar to the previous one in that it can also tell how 
  844. much (percentage) of the variance was due to the conditions of the test.
  845. It is used in one of two forms after either the Rank-sums or Kruskal-Wallis 
  846. test.
  847.  
  848. Linton, Marigold, and Philip S. Gallo, The Practical Statistician.  
  849. Monterey, California: Brooks/Cole Publishing Co., 1975.
  850.  
  851. McNemar, Quinn, Psychological Statistics.  New York: John Wiley & sons., 
  852.      Inc., 1949.
  853.  
  854.  
  855.  
  856.  
  857.  
  858.  
  859.  
  860.  
  861.  
  862. * CONTINGENCY COEFFICIENT FOR USE AFTER CHI SQUARE ANALYSIS
  863.  
  864.      The contingency coefficient is a measure of the degree of association 
  865. or correlation which exists between variables for which we have only 
  866. categorical information.  It is included as part of some of the Chi Square 
  867. analysis but it can be run directly from this program.
  868.  
  869. McNemar, Quinn, Psychological Statistics.  New York: John Wiley & sons., 
  870.      Inc., 1949.
  871.  
  872.  
  873. * DETERMINATION OF MEAN AND STANDARD DEVIATION OF GROUPED DATA
  874. * DETERMINATION OF MEAN AND STANDARD DEVIATION OF UNGROUPED DATA
  875. * COMBINING THE MEANS AND STANDARD DEVIATIONS OF TWO GROUPS
  876.  
  877.      These three techniques are very useful when you have raw data which 
  878. must be analyzed before it is entered into other tests.  The standard 
  879. deviations calculated in the first two tests will show both the population 
  880. standard deviation and the sample deviation.
  881.      The third test can be used to combine any number of groups with known 
  882. means and standard deviations into one over-all group.
  883.  
  884.      Many texts give the basic calculation methods.
  885.  
  886. Edwards, Allen L., Experimental Design in Psychological Research.  New York: 
  887. Holt, Rinehard and Winston, Inc., 1968.
  888.  
  889. Richmond, Samuel B., Statistical Analysis.  New York: The Ronald Press 
  890. Company, 1964.
  891.  
  892. Snedecor, George W., Statistical Methods., 4th Ed.,  Ames, Iowa: The Iowa 
  893. State College Press, 1946.
  894.  
  895. Weinberg, George H., and John A. Schumaker, Statistics, An Intuitive 
  896. Approach.  Belmont, California: Wadsworth Publishing Co., Inc., 1965.
  897.  
  898.  
  899. * ZM TEST
  900.  
  901.      This compares a random sample of one or more measurements with a large 
  902. parent group whose mean and standard deviation is known.  It is useful if 
  903. you have a small sample, as small as one individual, and want to determine 
  904. if it came from a population about which you know both the mean and standard 
  905. deviation.
  906.  
  907. Langley, Russell, Practical Statistics Simply Explained.  New York: Dover 
  908. Publications, Inc., 1970
  909.  
  910. * ZI TEST
  911.  
  912.      This test is essentially an adaptation of the ZM test for use with 
  913. numbers of instances instead of measurements.
  914.      The test allows for comparing a sample of isolated occurrences and an 
  915. average, for comparing two samples of isolated occurrences with each other, 
  916. or for comparing a binomial sample and a large parent group.
  917.  
  918. Langley, Russell, Practical Statistics Simply Explained.  New York: Dover 
  919. Publications, Inc., 1970
  920.  
  921.  
  922.  
  923.  
  924.  
  925.  
  926.  
  927.  
  928. * DETERMINING THE SIGNIFICANT DIFFERENCE BETWEEN TWO LARGE GROUPS
  929. * DETERMINING THE SIGNIFICANT DIFFERENCE BETWEEN TWO SMALL GROUPS
  930. * DETERMINING THE SIGNIFICANT DIFFERENCE BETWEEN TWO PROPORTIONS
  931. * STUDENT'S t-TEST
  932. * SIGNIFICANT DIFFERENCE BETWEEN A SAMPLE AND A POPULATION USING PROPORTIONS
  933.  
  934.      This group of tests allows for the determination of significant 
  935. differences between two groups.  The calculation methods are listed in 
  936. several texts.  They should allow you to handle all situations involving the 
  937. comparison of groups.
  938.      The first two require that you know the mean and standard deviation of 
  939. both groups along with the number in each group.  You can calculate this 
  940. data by using choice 1 of menu number four.
  941.      When determining the significant difference between proportions you 
  942. need only to know the number in the sample and the number or proportion 
  943. within the sample which are under consideration.
  944.  
  945.  
  946. * DETERMINING THE PROPER SAMPLE SIZE TO USE
  947.  
  948.      This test is described in many books.  In order to estimate the proper 
  949. sample size to use it is important that you estimate the PROBABLE standard 
  950. deviation involved in the population from which you intend to take the 
  951. sample.  One way is to take a small pilot sample, calculate the mean and 
  952. standard deviation and then using those numbers estimate the population 
  953. standard deviation.
  954.      You are offered various options to the program.  The first option will 
  955. determine the sample size for a large population without replacement, the 
  956. second option takes into account the finite population factor if you are 
  957. sampling from a small sample.  
  958.      You can also use proportions and the last two options offer you the 
  959. chance to estimate from a large population or a small population.
  960.      One further option is provided.  If you use the options to estimate the 
  961. proportion of the population the program also calculates the worst case 
  962. situation.  When you enter the estimated error or estimated answer you will 
  963. also be shown the worst case situation which is based on 50%.
  964.  
  965. Levin, Richard I., Statistics for Management, Englewood Cliffs, N.J.: 
  966. Prentice-Hall, Inc., 1978.
  967.  
  968. McElroy, Elam E., Applied Business Statistics, 2nd Ed., San Francisco, 
  969. California:  Holden-Day, Inc., 1979.
  970.  
  971.  
  972. * DETERMINING THE CONFIDENCE INTERVAL OF A POPULATION FROM A PROPORTION
  973.  
  974.      This program finds the standard error of the proportion and then, given 
  975. the sample size and the proportion of the same in which the investigator is 
  976. interested, calculates the upper and lower confidence limits.
  977.      You must indicate the significance level wanted.  You must indicate if 
  978. the sample is being taken from a small population without replacement.  If 
  979. this is the case various correction factors come into use.
  980.      After indicating if the population is small or large you enter the 
  981. number in the sample size and the number in the sample which is of interest.  
  982. This can be entered either as a proportion (by indicating a decimal point in 
  983. front of the number) or as the actual number in the sample.
  984.  
  985. Levin, Richard I., Statistics for Management, Englewood Cliffs, N.J.: 
  986. Prentice-Hall, Inc., 1978.
  987.  
  988.  
  989.  
  990.  
  991.  
  992.  
  993.  
  994. * DETERMINING THE CONFIDENCE INTERVAL OF A POPULATION FROM A SAMPLE
  995.  
  996.      There are a number of different estimates of a population which can be 
  997. made from information  acquired from a sample.
  998.      The simplest estimate is called a POINT estimate.  It is simply using 
  999. the sample mean as the best estimator of the population mean.
  1000.      It is also possible to use the standard deviation of the sample to 
  1001. estimate the standard deviation of the population.  This is done by dividing 
  1002. the sample standard deviation by the square root of the number in the 
  1003. sample.  In some cases the finite population correction factor must be used.
  1004.      An interval estimate describes a range of values within which a 
  1005. population parameter is likely to lie.
  1006.      In statistics, the probability that we associate with an interval 
  1007. estimate is called the confidence level.  It indicates how confident we are 
  1008. that the interval estimate will include the population parameter.
  1009.      The confidence interval is the range of the estimate we are making.  It 
  1010. is often expressed as standard errors rather than in numerical values.
  1011.      This program will calculate the mean of a population along with the 
  1012. confidence interval at whatever significance level you desire.  It will also 
  1013. handle both finite and infinite populations.  You must enter significance 
  1014. level wanted, the mean, the standard deviation and size of the sample.
  1015.      If you enter a small number for the sample you will be reminded to 
  1016. enter the significance value as a student's t value rather than a Z value.
  1017.  
  1018.  
  1019. Levin, Richard I., Statistics for Management, Englewood Cliffs, N.J.: 
  1020. Prentice-Hall, Inc., 1978.
  1021.  
  1022. McElroy, Elam E., Applied Business Statistics, 2nd Ed., San Francisco, 
  1023. California:  Holden-Day, Inc., 1979.
  1024.  
  1025.  
  1026. * THE POISSON DISTRIBUTION
  1027. * THE NORMAL DISTRIBUTION
  1028. * THE CHI SQUARE DISTRIBUTION
  1029. * THE STUDENT'S t-TEST DISTRIBUTION
  1030. * THE F-DISTRIBUTION
  1031. * THE BINOMIAL DISTRIBUTION
  1032.  
  1033.      Although tables are available for most of these distributions, these 
  1034. programs allow you to determine significance values from the raw data.  The 
  1035. programs were adapted from the book listed below.
  1036.      All limitations are included as part of the program and where the 
  1037. values are not exactly precise, they are on the conservative side.
  1038.  
  1039. Poole, Lon, Mary Borchers, and David M. Castlewitz, Some common Basic 
  1040. Programs, Apple II Edition, Berkeley, California: Osborne/McGraw-Hill, 1981.
  1041.  
  1042.  
  1043.  
  1044.  
  1045.  
  1046.  
  1047.  
  1048.  
  1049.  
  1050.  
  1051.  
  1052.  
  1053.  
  1054.  
  1055.  
  1056.  
  1057.  
  1058.  
  1059.  
  1060.                                 BIBLIOGRAPHY
  1061.  
  1062.  
  1063. Bernstein, Allen L., A Handbook of Statistics Solutions for the Behavioral 
  1064.      Sciences.  New York: Holt, Rinehart and Winston, Inc., 1964
  1065.  
  1066. Cicchetti, Dominic V.  Extensions of multiple-range tests to interaction 
  1067.      tables in the analysis of variance:  A rapid approximate solution.  
  1068.      Psychological Bulletin, 1972, 77, 405-408.
  1069.  
  1070. Edwards, Allen L., Experimental Design in Psychological Research.  New York: 
  1071.      Holt, Rinehard and Winston, Inc., 1968.
  1072.  
  1073. Ehrenfeld, S., and S. Littauer, Introduction to Statistical Analysis, 
  1074.     3rd ed. New York: McGraw-Hill Book Co., 1964
  1075.  
  1076. Friedman, Milton, Journal of the American Statistical Association, 1937.
  1077.  
  1078. Friedman, Milton, A comparison of alternative tests of significance for the 
  1079.      problem of m rankings.  Annual Mathematical Statistician, 11, 1940.
  1080.  
  1081. Hamberg, Morris, Basic Statistics: A Modern Approach.  New York:  Harcourt 
  1082.      Brace Jovanovich, Inc., 1974.
  1083.  
  1084. Hewlett-Packard Company, HP-55 Statistics Programs, Cupertino, California
  1085.  
  1086. Hewlett-Packard Company, HP-67 Standard Pac, Cupertino, California
  1087.  
  1088. Kendall, M. G., Rank Correlation Methods.  London: Griffin Press, 1948.
  1089.  
  1090. Kruskal, W. H. and W. A. Wallis, Use of ranks in one-criterion variance 
  1091.     analysis.  Journal of the American Statistical Association, 47, 1952.
  1092.  
  1093. Langley, Russell, Practical Statistics Simply Explained.  New York: Dover 
  1094.      Publications, Inc., 1970
  1095.  
  1096. Lapin, L. L., Statistics for Modern Business Decisions.  New York: Harcourt 
  1097.      Brace Jovanovich, Inc., 1973.
  1098.  
  1099. Levin, Richard I., Statistics for Management, Englewood Cliffs, N.J.: 
  1100.      Prentice-Hall, Inc., 1978.
  1101.  
  1102. Linton, Marigold, and Philip S. Gallo, The Practical Statistician.  
  1103.      Monterey, California: Brooks/Cole Publishing Co., 1975.
  1104.  
  1105. McElroy, Elam E., Applied Business Statistics, 2nd Ed.  San Francisco, 
  1106.      California:  Holden-Day, Inc., 1979.
  1107.  
  1108. McNemar, Quinn, Psychological Statistics.  New York: John Wiley & Sons., 
  1109.      Inc., 1949.
  1110.  
  1111. McNemar, Quinn, Psychological Statistics, 2nd Ed.  New York: John Wiley & 
  1112.      Sons Inc., 1955.
  1113.  
  1114. Mood, A. M., Introduction to the Theory of Statistics.  New York:  McGraw-
  1115.      Hill Book Company, 1950.
  1116.  
  1117.  
  1118.  
  1119.  
  1120.  
  1121.  
  1122.  
  1123.  
  1124.  
  1125.  
  1126. Poole, Lon, Mary Borchers, and David M. Castlewitz, Some Common Basic 
  1127.      Programs, Apple II Edition, Berkeley, California: Osborne/McGraw-Hill,
  1128.      1981.
  1129.  
  1130. Popham, W. James, Educational Statistics, Use and Interpretation.  New York:  
  1131.      Harper & Row, Publishers, 1967.
  1132.  
  1133. Richmond, Samuel B., Statistical Analysis.  New York: The Ronald Press 
  1134.      Company, 1964.
  1135.  
  1136. Shao, Stephen P., Statistics for Business and Economics.  Columbus, Ohio: 
  1137.      Charles E. Merrill Books, Inc., 1967.
  1138.  
  1139. Siegel, Sidney, Nonparametric Statistics for the Behavioral Sciences.  New 
  1140.      York: McGraw-Hill Book Company, 1956.
  1141.  
  1142. Snedecor, George W., Statistical Methods., 4th Ed.,  Ames, Iowa: The Iowa 
  1143.      State College Press, 1946.
  1144.  
  1145. Spearman, C., American Journal of Psychology, 15:88, 1904.
  1146.  
  1147. Texas Instruments, Calculating Better Decisions, 1977.
  1148.  
  1149. Weinberg, George H., and John A. Schumaker, Statistics, An Intuitive 
  1150.      Approach.  Belmont, California: Wadsworth Publishing Co., Inc., 1965.
  1151.  
  1152. Wilcoxon, F., Individual comparisons by ranking methods.  Biometrics 
  1153.      Bulletin, 1, 1945.
  1154.  
  1155. Wilcoxon, F., Probability tables for individual comparisons by ranking 
  1156.      methods.  Biometrics Bulletin, 3, 1947.
  1157.  
  1158.  
  1159.  
  1160.                     MODERN MICROCOMPUTERS
  1161.                        63 SUDBURY LANE
  1162.                     WESTBURY, N.Y.  11590
  1163.                         (516) 333-9178
  1164.                Programmer:  Dr. Robert C. Knodt
  1165.  
  1166. Suggested Donation: $15.00
  1167. REGISTER YOUR COPY TODAY.
  1168.