home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1993 #1 / NN_1993_1.iso / spool / bit / listserv / csgl / 2080 < prev    next >
Encoding:
Text File  |  1993-01-07  |  10.3 KB  |  223 lines

  1. Comments: Gated by NETNEWS@AUVM.AMERICAN.EDU
  2. Path: sparky!uunet!europa.asd.contel.com!paladin.american.edu!auvm!VAXF.COLORADO.EDU!POWERS_W
  3. Return-Path: <@VMD.CSO.UIUC.EDU:POWERS_W%FLC@VAXF.Colorado.EDU>
  4. X-Envelope-to: CSG-L@vmd.cso.uiuc.edu
  5. X-VMS-To: @CSG
  6. MIME-version: 1.0
  7. Content-transfer-encoding: 7BIT
  8. Message-ID: <01GT8EJ6RTCI006MJF@VAXF.COLORADO.EDU>
  9. Newsgroups: bit.listserv.csg-l
  10. Date:         Thu, 7 Jan 1993 09:54:48 -0700
  11. Sender:       "Control Systems Group Network (CSGnet)" <CSG-L@UIUCVMD.BITNET>
  12. From:         "William T. Powers" <POWERS_W%FLC@VAXF.COLORADO.EDU>
  13. Subject:      Generative models; prediction; models for mouths
  14. Lines: 207
  15.  
  16. [From Bill Powers (930107.0830)]
  17.  
  18. Greg Williams (930107) --
  19.  
  20. >As I've said before, Newton was the Skinner of his day:
  21. >"Hypotheses non fingo!" I think we must admit that he guessed
  22. >right that his trying to make a generative model for gravity --
  23. >and then being able to test it -- would have been fruitless.
  24.  
  25. But Newton DID propose a generative model. It went "Every bit of
  26. matter in the universe attracts every other bit of matter with a
  27. force proportional to the product of the masses and inversely
  28. proportional to the square of their separation." This was
  29. certainly not what was observed. The observations had to do with
  30. behavior of planets, the moon, and thrown and dropped objects.
  31. Newton proposed an underlying set of entities called "masses"
  32. which had the property stated in his universal law. Beginning
  33. with his generative model, one could do experiments to determine
  34. the model parameters (the universal constant of gravitation), and
  35. then deduce how any collection of bits of matter would behave
  36. gravitationally. So the observations were compared with
  37. deductions from the generative model. Predictions were made by
  38. running the model, by calculation, to generate a specific
  39. behavior, which then could be compared with what actually
  40. happened. They're still testing this model; the most recent test
  41. I know of was intended to see if the spatial exponent was exactly
  42. 2.0. It was, to as many decimal places as could be measured.
  43. Pretty good generative model.
  44.  
  45. Newton fingod plenty of hypotheses. When he said that, he must
  46. have been using the term differently from the way we use it now.
  47.  
  48. >The question really boils down to whether, at a given time,
  49. >generative models work better FOR THE PURPOSES OF THE
  50. >INVESTIGATORS than do descriptive "models." Even in the long
  51. >run, generative models simply might be too complicated to
  52. >actually make, or you might run into chaos (hair- trigger)
  53. >problems.
  54.  
  55. Descriptive models work. What they are, basically, are summaries
  56. of observations of how the world has behaved in the past. When
  57. you manipulate A, what has the average effect on B always been?
  58. This is good enough for a lot of purposes -- driving a car, if
  59. not designing an internal-combustion motor. So I agree with you.
  60. If all you want is the level of predictivity you can get with
  61. descriptive models, then they're quite good enough.
  62.  
  63. >>It's not worthwhile trying to make a model fit every anomaly.
  64.  
  65. >There goes the PCT standard of "accept nothing less
  66. >99.9999999... correlations."
  67.  
  68. Curb your gazelle, sir. I have advocated requiring correlations
  69. of at least 0.95 before taking data very seriously. If there are
  70. so many anomalies in a data run that the correlation of model
  71. versus real behavior drops below that level, the anomalies must
  72. be investigated or the model must be improved. You shouldn't put
  73. quotations marks around things I never said.
  74.  
  75. My reasons for demanding such correlations are not religious.
  76. They have to do with the requirements on scientific facts that
  77. are to be used in deductive arguments that rely on more than just
  78. one or two isolated observations. If your facts have only an 80%
  79. chance of being true, you're limited to arguments in which you
  80. use less than four facts at once, if you want the conclusions to
  81. have even a 50-50 chance of being true. With a 90% chance of
  82. truth, you can use 6 facts. With a 99% truth value you can use 69
  83. facts -- if all you want is a 50-50 chance that the conclusion is
  84. true. If you want a 95% chance that the conclusion is true, and
  85. each fact has an independent  probability of 0.99, you're back
  86. down to only 5 facts.
  87.  
  88. It's pretty hard to think of any half-way useful scientific
  89. prediction that is made on the basis of only 5 facts that have to
  90. be true at the same time. Most useful predictions, such as the
  91. trajectory of a Mars probe, rest on hundreds of underlying facts,
  92. especially when you consider tracing all derived facts back to
  93. their experimental bases.
  94.  
  95. So what you said about the usefulness of descriptive models is
  96. true, but you have to think about the implications. Descriptive
  97. models of the kinds we usually find in the behavioral sciences
  98. are made of facts with relatively low truth-values. The most
  99. predictive use of such a fact is to use it alone: If a fact has a
  100. 60% chance of being true, then the next time you look the same
  101. fact will still have a 60% chance of being true. But if you try
  102. to combine that fact with another one of the same truth value in
  103. order to draw some more interesting conclusion, your conclusion's
  104. truth value immediately drops to 36% -- it's probably wrong.
  105.  
  106. The use of low-quality facts is therefore a terrific handicap on
  107. any enterprise that can succeed only to the extent that its
  108. predictions are correct. When low-quality facts are used, there
  109. can be no grand structure of concepts that hangs together as it
  110. does in physics and chemistry. The science of psychology, as long
  111. as it remains satisfied with the degree of predictivity it now
  112. achieves, will always remain simplistic and fragmented. Its
  113. predictions will always remain poor. Only an intensive public-
  114. relations job could have persuaded society to continue supporting
  115. psychology. Selling failure as success has been critical to many
  116. such PR jobs.
  117.  
  118. >In principle, underlying generative models are more complete
  119. >than descriptions at the level of the phenomena. But in
  120. >practice, the former might not be able to predict better than
  121. >the latter, due to the complexity of the underlying mechanisms
  122. >and/or hair-trigger situations.
  123.  
  124. I suppose that in some imaginary case that might be true. So far,
  125. however, all the generative models actually developed and tested
  126. under PCT have predicted a lot better than any descriptive models
  127. have done. I'm not going to worry about complexity of underlying
  128. mechanisms and hair-trigger effects until I run into them. Maybe
  129. that's what Newton meant by "hypotheses non fingo." Don't let
  130. your imagination throw up so many difficulties that you never try
  131. anything. I've found that the solution to imagined problems is
  132. always simpler than I thought.
  133.  
  134. RE: putting model where mouth is.
  135.  
  136. >I think you better be explicit about what you mean by "real S-R
  137. >model." The kind of model a behaviorist would make is one which
  138. >is a function of observables in the external world; in this
  139. >case, cursor position and velocity, target position, and handle
  140. >position and velocity.
  141.  
  142. Fine. I'll give you a data record showing the cursor, target, and
  143. handle behavior point by point -- the raw data. I will generate
  144. the disturbance pattern at random, and scout's honor will fit the
  145. control model to the behavior without using any information about
  146. the disturbance or even knowing what disturbance pattern was
  147. created.
  148.  
  149. You devise an S-R model that will predict the cursor and handle
  150. behavior for a new randomly-generated disturbance pattern,
  151. unknown to either of us in advance, with exactly the same target
  152. behavior. I will predict the new handle and cursor behavior with
  153. the control-system model; you predict them with your S-R model.
  154. We will then compare the results. You can use any definition of S
  155. and R that you please, and any number of integrals or derivatives
  156. that you can get from the data.
  157.  
  158. >It will save me a lot of trouble if I know in advance that a
  159. >descriptive function which includes a subtraction of cursor
  160. >position from target position won't count for you as a "real"
  161. >descriptive "model."
  162.  
  163. Any operations you like. But whatever you use, the S-R model must
  164. be expressed as H = f(C,T).
  165.  
  166. I will be extremely interested to see what you decide to use for
  167. C, without knowing what the disturbance is.
  168. ------------------------------------------
  169. >Then you go through a long list of red herrings. What I meant
  170. >to say is that various PCT models such as proportional,
  171. >proportional-integral, and proportional-integral-derivative,
  172. >with various nonlinearities and various parameters, and various
  173. >descriptive "models" with various functions and parameters, ALL
  174. >give about equally high correlations between predicted handle
  175. >positions and actual handle positions, but all do NOT give
  176. >equally high correlations between predicted cursor positions
  177. >and actual cursor positions.
  178.  
  179. How do you know they all give about equally high correlations?
  180. Isn't all this a conjecture?
  181. ------------------------------------------
  182. >I believe that the PCT models used to predict tracking can be
  183. >interpreted also as functional "models" -- the choice of
  184. >interpretation (underlying generative model or function
  185. >"model") depends only on whether one envisions a reference
  186. >signal for target position inside the organism (thus explaining
  187. >why cursor position is subtracted from target position) or one
  188. >simply notes that prediction is good if there is such a
  189. >subtraction in the function relating "input" to "output" at
  190. >each moment and doesn't care about explaining why.
  191.  
  192. Sure. The canonical mathematical forms are the same whether you
  193. think of the signals as being real or not. If you're incurious
  194. about how the mathematical functions are actually implemented,
  195. you can just leave it there.
  196.  
  197. To go farther, you can start picking up hints from the nervous
  198. system. I've tried to do that, within my limits.
  199. --------------------------------------------
  200. >As ever,
  201.  
  202. Damned straight. Gadfly to the CSG.
  203. ------------------------------------------------------------
  204. Von Bakanik (930107) --
  205.  
  206. "Groups", as we use this technical term, means "bunches." I know
  207. that sociologists give a more specialized meaning to this term.
  208. We're talking about using population statistics as a way of
  209. deriving characteristics of individuals, not about group dynamics
  210. and that sort of stuff. Sociologists use statistics more
  211. legitimately than psychologists, because they apply mass measures
  212. to masses, not to individuals.
  213.  
  214. >Does this imply that sociologists are a lost cause as PCT
  215. >converts?
  216.  
  217. Gee, I don't know. Ask Chuck Tucker.
  218. ----------------------------------------------------------
  219. Best to all,
  220.  
  221.  
  222. Bill P.
  223.