home *** CD-ROM | disk | FTP | other *** search
/ The Hacker's Encyclopedia 1998 / hackers_encyclopedia.iso / etc / scams / fairball.txt < prev    next >
Encoding:
Text File  |  2003-06-11  |  11.1 KB  |  249 lines

  1.  
  2. FAIR COIN AND LARGE NUMBER THEORY
  3. > *** FAIR COIN TOSSING QUESTION ??? ***
  4. > If I toss a fair coin 1000 times and the fist 700 tosses reveal
  5. > 400 heads and 300 tails what would I expect from the last 300 tosses ?
  6. >
  7. > a) approx 150 heads + 150 tails
  8. >  bringing total heads to 550 and total tails to 450 ?
  9. >
  10. > b) approx 100 heads + 200 tails
  11. >  bringing total heads to 500 and total tails to 500 ?
  12.  
  13. "Fair coin" usually means that the chance of heads is equal to the chance
  14. of tails.  Thus (a) is [roughly] correct -- certainly (b) is wrong.  If
  15. you assume that the results of the first 700 indicate that the coin may
  16. NOT be fair, then all bets are off.
  17.  
  18. Following is some material on the "Law of Averages" that I posted on
  19. rec.gambling a while ago; it might be useful to you.
  20.  
  21. --
  22. FAIR COIN AND LARGE NUMBER THEORY
  23. In <2pjcl9$1ut@champ.ksu.ksu.edu>, mirage@champ.ksu.ksu.edu
  24. (Eric L Sipe) asks about the Law of Large Numbers:
  25.  
  26. > where and how do the theory of (wheel/dice/coin/etc.) have no memory
  27. > and the Law of Large Numbers converge.
  28. >
  29. > The Law of Large Numbers, as I understand it, says that as the
  30. > sample size of outcomes becomes larger, the measured number of
  31. > outcomes come closer to what is expected by the theoretical
  32. > probability.
  33.  
  34. "Number" should be replaced by "proportion," as in fact Eric
  35. realizes:
  36.  
  37. > You can see this by making a graph.  Make the x-axis the number of
  38. > trials or outcomes.  If you are flipping a coin, make the y-axis a
  39. > measure of how many heads or tails have been flipped out of the
  40. > total. Let's say you are keeping track of heads, and the following
  41. > sequence occurs:  HTTHH
  42. > You would plot 1.0, 0.5, 0.33, 0.5, 0.6 vs 1,2,3,4,5.
  43. > Anyway, this graph shows that you start out with a jagged line that
  44. > eventually smooths down to a straight line at the expected
  45. > probability.  My question has always been:  at how many outcomes can
  46. > you expect the line to smooth out??
  47.  
  48. > So let's say that a new casino opens up.  For simplicity, we'll say
  49. > that the roulette wheel has no green.  So, the theoretical
  50. > probability of landing on red is 0.5.  But the first 1000000 spins
  51. > at this casino all land on red.  (the probability of this for all
  52. > practicality is zero, but _theoretically_ it might happen).  Now,
  53. > what is the best strategy for betting at this wheel (assuming it can
  54. > be proven that there is no bias in the wheel).  ... what about those
  55. > who say that there is no optimum strategy-- that your chances are
  56. > still 50/50???  This is where I start to disagree.  Why not stick
  57. > around and bet a small amount on black for the next 1000000 spins?
  58. > The Law of Large Numbers would seem to indicate that at least the
  59. > majority of the next 1000000 spins would be black.
  60.  
  61. The Law of Large Numbers (aka "The Law of Averages," especially when
  62. misapplied) does not so indicate.  Let's start at the beginning...
  63.  
  64. The theory of statistics and probability developed as a framework
  65. for handling the uncertainty inherent in measuring only a sample of
  66. a population in an attempt to estimate the true values applicable to
  67. the entire population.  The theory is applicable where the true
  68. value is uncertain because it is not practical to measure each
  69. individual comprising the population.  The impracticality arises
  70. from contraints on observation due to limited resources (e.g.,
  71. polling) or the finitude of time (e.g., roulette outcomes).  A
  72. statistical analysis always provides, with any statement of true or
  73. expected value, an estimate of the error of the stated value.
  74.  
  75. Sometimes, in probabilistic analysis, the error estimate is omitted
  76. and replaced with an assumption that the population is infinite.
  77. This is the case when we say, for example, that the expected loss on
  78. a double-zero roulette wheel wager is exactly 2/38 of the bet.  But
  79. this is just a kind of shorthand which expands to a statement that
  80. the error is zero when the population is infinite.  Underlying the
  81. whole analytical enterprise is the assumption that the outcome of
  82. any future spin or series of spins of the wheel is uncertain.
  83.  
  84. What the Law of Large Numbers says is that the larger the sample
  85. size, the higher the probability that a collective measure of the
  86. sample will fall within any predetermined range around the true
  87. population collective value.  (Examples of "collective" values would
  88. be the average height of a group of people and the proportion of red
  89. in a series of roulette spins.)  In short, the larger the number of
  90. observations, the smaller the error of the estimate.
  91.  
  92. Notice in the above statement of the law I said "the higher the
  93. probability" that the sample result (e.g., mean or proportion) will
  94. lie within some range of the true value, not "the closer the sample
  95. proportion will be" to the true value.  We can use the law to talk
  96. about probabilities of random future results because the law is a
  97. concise statement of the nature of the uncertainty inherent in a
  98. random process.  We cannot use the law to remove uncertainty without
  99. contradicting its premises.
  100.  
  101. The contention that the law implies that a past series of red results
  102. makes future black results more probable is based on the following
  103. argument:
  104.  
  105. Premises:
  106.  
  107. (1) Red and black are equally probable (let's ignore green for
  108. simplicity), i.e., the true population proportion is 50%.
  109.  
  110. (2) According to the Law of Large Numbers, the more spins of the
  111. wheel, the higher the probability that the observed proportion will
  112. lie within N% of 50% for any N.
  113.  
  114. (3) We have observed a series of X spins in which the result was red
  115. each time.
  116.  
  117. (4) We propose to observe Y future spins.  Per (2), there is a
  118. higher probability that the proportion of black in X+Y spins will be
  119. close (for any given specification of "close") to 50% than it will
  120. be for X spins.
  121.  
  122. Conclusion:
  123.  
  124. For the next Y spins, black is more probable than red.
  125.  
  126. Not only does the conclusion not follow from the premises, it
  127. contradicts the primary one.
  128.  
  129. (Requoting...)
  130. > Anyway, this graph shows that you start out with a jagged line that
  131. > eventually smooths down to a straight line at the expected
  132. > probability.
  133.  
  134. The further to the right you go on the graph, the more the chance
  135. that the y value will lie close to 0.5.  But it is possible, for any
  136. given x value, for the y value to lie anywhere between 0 and 1
  137. (assuming that we have not yet made any observations). Both of these
  138. statements are simply reformulations of the assumed nature of the
  139. wheel:  any given spin can result in either red or black, and the
  140. probability of either is 0.5.  No valid argument from those premises
  141. can contradict them.
  142.  
  143. > My question has always been:  at how many outcomes can you expect
  144. > the line to smooth out??
  145.  
  146. This red/black process has results which are described by the
  147. binomial distribution, which is a variety of Gaussian distribution.
  148. For any given number of observations N, if we plot the number of
  149. deviations from the expected value on the horizontal axis, and the
  150. probability of that number of deviations on the vertical axis, we
  151. get the familiar "bell-shaped" function, very roughly thus:
  152.  
  153. p                    *
  154. r                  *   *
  155. o                 *     *
  156. b               *         *
  157. .            *               *
  158.           *                     *
  159. fewer than expected  0  more than expected
  160.       nbr of deviations from expected
  161.  
  162. The peak in the center occurs at x = 0 and y = 0.798 divided by the
  163. square root of N.  Thus:
  164.  
  165.       Number of observations         Chance that red/black EXACTLY
  166.                                             equals 1.0
  167.  
  168.              10                               25.2%
  169.             100                                8.0%
  170.           1,000                                2.5%
  171.          10,000                                0.8%
  172.         100,000                                0.3%
  173.       1,000,000                                0.1%
  174.      10,000,000                                0.03%
  175.     100,000,000                                0.008%
  176.  
  177. The standard deviation of the distribution is half the square root
  178. of N. Thus there is about a 95% chance that the number of excess
  179. reds or blacks will lie within the square root of N (two standard
  180. deviations).  This implies:
  181.  
  182.       Number of observations       95% chance that proportion is
  183.                                    within, or 5% chance outside of:
  184.  
  185.              10                             0.18 - 0.82
  186.             100                             0.40 - 0.60
  187.           1,000                             0.47 - 0.53
  188.          10,000                             0.49 - 0.51
  189.         100,000                            0.497 - 0.503
  190.       1,000,000                            0.499 - 0.501
  191.      10,000,000                           0.4997 - 0.5003
  192.     100,000,000                           0.4999 - 0.5001
  193.  
  194.  
  195. SUMMARY
  196. -------
  197. Given a statement about the uncertainty of an individual outcome,
  198. the Law of Large Numbers is an extrapolation to a statement about
  199. the uncertainty of the net result of a number of outcomes.  Use of
  200. the law implies that the statement about the nature of an individual
  201. outcome remains true.
  202.  
  203. If a future spin of the wheel will result in either red or black,
  204. but we have no information as to which, then we can make certain
  205. statements based on the Law of Large Numbers about probabilities
  206. for a collection of such spins.
  207.  
  208. Use of the law to argue that an outcome is "due" as a result of a
  209. deficiency of that outcome in the past is to take the law outside
  210. its domain of discourse and to assume the contrary of the premise
  211. underlying the law.  The addition of past, known results to a number
  212. of future results does not make the latter number "larger" in the
  213. sense relevant to the Law of Large Numbers.  The law and probability
  214. theory in general do not speak to past or known results, but to
  215. future uncertain results.
  216.  
  217. EXERCISES
  218. ---------
  219. (1) You observe that 100 consecutive spins of the red/black wheel
  220. come up red.  Based on your interpretation of the "Law of Averages",
  221. you are about place a series of bets on black.  Just then you
  222. discover that the wheel on the next table has just completed 100
  223. spins all of which came up black.  Do you still make the bets?  Do
  224. you also bet on red on that other wheel?  Do the two wheels
  225. together cancel each other out to satisfy the "Law of Averages"?
  226. Or is the "Law of Averages" applicable here at all?
  227.  
  228. (2) You observe that for 100 spins of the wheel, red and black
  229. alternated precisely, so that each odd-numbered spin (1st, 3rd, ...
  230. 97th, 99th) came up red and each even-numbered spin came up black.
  231. If asked beforehand the probability of this exact result, you would
  232. presumably have said that it was very small.  Assuming that you are
  233. confident that there is no physical wheel or dealer anomaly to
  234. explain the results, i.e., that the wheel remains unbiased, do you
  235. now bet on red with any confidence?
  236.  
  237. (3) [Multiple-choice]  You are playing double-zero roulette and
  238. experience a consecutive string of ten reds.   The dealer exclaims,
  239. "Wow!  We just had ten reds in a row!  What's the probability of
  240. THAT?"  You answer:
  241.     (a) 0.00056871
  242.     (b) 1.00000000
  243.     (c) Cocktails!
  244.  
  245. --
  246. sbrecher@connectus.com (Steve Brecher)
  247.  
  248.  
  249.