home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1993 #1 / NN_1993_1.iso / spool / bit / listserv / csgl / 2089 < prev    next >
Encoding:
Text File  |  1993-01-08  |  16.1 KB  |  310 lines

  1. Comments: Gated by NETNEWS@AUVM.AMERICAN.EDU
  2. Path: sparky!uunet!spool.mu.edu!darwin.sura.net!paladin.american.edu!auvm!MCIMAIL.COM!0004972767
  3. Return-Path: <@VMD.CSO.UIUC.EDU:0004972767@mcimail.com>
  4. Message-ID: <11930108125911/0004972767DC2EM@mcimail.com>
  5. Newsgroups: bit.listserv.csg-l
  6. Date:         Fri, 8 Jan 1993 12:59:00 GMT
  7. Sender:       "Control Systems Group Network (CSGnet)" <CSG-L@UIUCVMD.BITNET>
  8. From:         Hortideas Publishing <0004972767@MCIMAIL.COM>
  9. Subject:      Buzz, buzz, buzz
  10. Lines: 298
  11.  
  12. From Greg Williams (920108)
  13.  
  14. AVERY: The PostScript files are BIG. The best thing to do is send Bill Powers
  15. money for postage for a hard copy. It would cost me a lot to send via e-mail,
  16. and disks would probably cost as much as the paper itself.
  17.  
  18. CHUCK: PictureThis works ONLY with PostScript printers. It is possible to get
  19. programs to emulate PostScript on dot-matrix printers, but I don't recommend
  20. it. If you have FULL-TIME access to a LaserJet with a PostScript cartridge,
  21. let me know.
  22.  
  23. >Bill Powers (930107.0830)
  24.  
  25. >But Newton DID propose a generative model. It went "Every bit of
  26. >matter in the universe attracts every other bit of matter with a
  27. >force proportional to the product of the masses and inversely
  28. >proportional to the square of their separation." This was
  29. >certainly not what was observed. The observations had to do with
  30. >behavior of planets, the moon, and thrown and dropped objects.
  31. >Newton proposed an underlying set of entities called "masses"
  32. >which had the property stated in his universal law.
  33.  
  34. I think that Newton's "model" does not postulate an underlying mechanism for
  35. gravity (in fact, folks are still working on models to do this), but only
  36. generalizes the observations, as Skinner's functional relations among
  37. observables describe behavior. Skinner could not say WHY a rat should EVER
  38. become hungry; Newton could not say WHY gravitation should be at all (or why
  39. it should not turn off at odd times, or even why the power involved is 2,
  40. rather than something else). Both Skinner and Newton simply had faith that the
  41. next bit of data (rat or matter) would be like previous ones they had
  42. described correctly (in hindsight). Skinner deferred to physiologists and
  43. evolutionary biologists to make generative models which would go beyond his
  44. faith; Newton deferred to later physicists.
  45.  
  46. Newton did propose that an entity he called "mass" was the important feature
  47. of matter with respect to gravitational attraction. That entity might be
  48. construed as "underlying" the observable phenomena, but it doesn't seem to me
  49. to provide a underlying mechanism. To me, it seems that Newton took exactly
  50. the same position as Skinner: that functional relationships among observables
  51. which have provided good predictions in the past are acceptable for making
  52. future predictions without their being explained and delimited by models of
  53. underlying mechanisms. If Newton had been asked, "But why is there such an
  54. entity as 'mass'?", he probably would have answered that he wasn't about to
  55. speculate on that, and not just because of timidity -- his purposes didn't
  56. require it. Ditto for Skinner on "hunger."
  57.  
  58. Still, there is a sense in which generalized description/functional relations
  59. can be said to be "generative": if precise predictions are "generated," even
  60. though the basis of the "models" lies entirely at the level of the phenomena
  61. being described, with no reference to unobservables. In PCT tracking models,
  62. an unobservable reference level for target position is hypothesized in the
  63. tracker, built into a supposedly "underlying generative model," and used to
  64. predict handle movements. The behaviorist can build a mathematically similar
  65. (even identical) "model" and claim that it makes no reference to
  66. unobservables; he/she simply proposes a function relating observable "stimuli"
  67. to observable "responses." He/she takes the "stimuli" as cursor positions and
  68. velocities relative to the target position, and the "responses" as handle
  69. velocities. Both the PCT "underlying generative model" and the behaviorist's
  70. "functional relation" include a feedback connection from handle to cursor;
  71. if they didn't, they wouldn't reflect the experimental set-up. And both can
  72. generate precise predictions of handle and cursor movement (in fact, identical
  73. predictions, if their forms and parameters are the same). Better models, in
  74. both cases, will be judged to be ones which accurately predict both handle and
  75. cursor positions when the tracker is given a different disturbance. Both
  76. models are subject to limits on their predictions because of "noise" in the
  77. subject. Such "noise" could be modeled either descriptively or with an
  78. underlying generative model; the behaviorist would choose the former. If the
  79. PCT modeler chose the latter, then there would be a genuine difference between
  80. the models at the mathematical level. Otherwise, they would differ in
  81. interpretations, only.
  82.  
  83. >>>It's not worthwhile trying to make a model fit every anomaly.
  84.  
  85. >>There goes the PCT standard of "accept nothing less
  86. >>99.9999999... correlations."
  87.  
  88. >Curb your gazelle, sir. I have advocated requiring correlations
  89. >of at least 0.95 before taking data very seriously. If there are
  90. >so many anomalies in a data run that the correlation of model
  91. >versus real behavior drops below that level, the anomalies must
  92. >be investigated or the model must be improved. You shouldn't put
  93. >quotations marks around things I never said.
  94.  
  95. You say I'm a (the?) CSG gadfly. I'm also the CSG archivist, and here are some
  96. quotes from previous posts on the net to show what you (and Rick) actually
  97. have said. At one point, you say that correlations of ".99 upward" are needed
  98. for a "true science." And Rick says that .99+ is a "reasonable" goal. My point
  99. is that you have not reached that goal in predicting cursor position. Does
  100. that mean that PCT (so far) is not a "true science"? Perhaps the most
  101. interesting line in the excerpts below concerns the "brag" that "When you do a
  102. real PCT experiment, you get an exact match between the model and the real
  103. behavior." Apparently, no one to date has ever done a "real PCT experiment." I
  104. believe that my quote accurately reflects the comments below, although you are
  105. correct that it is not an actual quote of what you said. I'll even drop the
  106. nines after the decimal point and apologize for the exaggeration -- but, hey,
  107. what's a few tenths between friends? When I said "there goes the PCT
  108. standard," I was referring to your apparently selective application of your
  109. own contention that "somebody has to aim for 0.997 or better, and keep aiming
  110. for it no matter how slow the progress. Because only in that way are we going
  111. to understand and not just fool ourselves into believing that we understand."
  112. So let's quit fooling ourselves about PCT models (to date) being able to
  113. predict cursor position well enough, OK? Correlations of less than .9 just
  114. aren't acceptable for true science, unless your definition of true science has
  115. changed recently.
  116.  
  117. (BEGIN INCLUDED QUOTES)
  118.  
  119. [From Bill Powers (920112.1700)]
  120.  
  121. I don't consider any correlation of less than 0.95 to be of scientific
  122. interest, and for correlations that low, a lot of added work is implied to
  123. reduce the span of the error bars.
  124.  
  125. [From Bill Powers (920113.1200)]
  126.  
  127. Again, I don't think that any correlation lower then the 0.90s would be
  128. scientifically usable. And you don't get results that you could call
  129. *measurements* until you're up around 0.95 or better.
  130.  
  131. A true science needs continuous measurement scales so that theories about
  132. the forms of relationships can be tested. This means that correlations
  133. have to be somewhere in the high nineties. True measurements, with normal
  134. measurement errors, require correlations of 0.99 upward.
  135.  
  136. [From Bill Powers (920213.1300)]
  137.  
  138. One of my objections to the statistical approach to understanding
  139. behavior is that after the first significant statistical measure is
  140. found, the experimenter quits the investigation and publishes. If you get
  141. a correlation of 0.8, p < 0.05, you next question should be, "Where is
  142. all that variance coming from?" If you set your sights on 0.95, p <
  143. 0.0000001, you won't quit after the preliminary study, but will refine
  144. the hypothesis until you get real data.
  145.  
  146. [From bill Powers (920222.1400)]
  147.  
  148. You can't base
  149. a science on facts that have only a 0.8 or 0.9 probability of being true.
  150. Such low-grade facts can't be put together into any kind of extended
  151. argument that requires half a dozen facts to be true at once. You need
  152. facts with probabilities of 0.9999 or better -- if you want to build an
  153. intellectual structure that will hang together.
  154.  
  155. [From Bill Powers (920515.2000)]
  156.  
  157. Traditional statistical analysis is
  158. based on very low standards of acceptance and extremely noisy data. I would
  159. rather see less data and higher standards: say, correlations above 0.95 and
  160. p < 0.000001. This should reduce the literature to a readable size and make
  161. its contents worth reading.
  162.  
  163. [From Rick Marken (920624.1030)]
  164.  
  165. As I said in an earlier post, if
  166. the relationships in your data are not .99 or greater then you should
  167. try to fix the research until you get such relationships.
  168.  
  169. [From Rick Marken (920624.1320)]
  170.  
  171. I said (or meant to say) that the criterion for what constitutes a
  172. scientific fact in psychology should be far stricter than it is. I think
  173. a reasonable goal is correlations of .99+. This can be done when you are
  174. studying control -- at least when you are studying variables that can be
  175. quantified relatively easily.
  176.  
  177. [From Bill Powers (920625.0830)]
  178.  
  179. Suppose that you're a psychologist just starting in with HPCT. You hear a
  180. lot of bragging: "We can get correlations of 0.997 that hold up with
  181. predictions over a span of a year." Or "When you do a real PCT experiment,
  182. you get an exact match between the model and the real behavior."
  183.  
  184. When you've thought up an experiment to test a model, carried it out, and
  185. found a correlation of 0.997 between what the model does and what a real
  186. person does, there's only one response: jubiliation. You have actually
  187. discovered a real true fact of nature, a high-quality fact, and fact that
  188. sticks up out of the mass of other facts like a lighthouse.
  189.  
  190. If you can get 0.997 in a simple experiment, maybe you can get the same
  191. result with a slightly more complicated one. Yes, you can, it turns out.
  192.  
  193. Once you've set foot on this road, you can see that it leads where we want
  194. to go. Eventually it will lead to a solid reliable understanding of all
  195. that is possible to know about human behavior. There's no point in trying
  196. to skip ahead and guess how it will all come out. There's no point in using
  197. methods that produce bad data and bad guesses and lead to knowledge that
  198. has only a minute chance of being correct. Certainly, those bigger problems
  199. are important. Certainly we need to solve them, as soon as we can.
  200. Certainly, we have to go on trying to cope with them using experience as a
  201. quide where we have no understanding. But if it's a science of life we
  202. want, somebody has to aim for 0.997 or better, and keep aiming for it no
  203. matter how slow the progress. Because only in that way are we going to
  204. understand and not just fool ourselves into believing that we understand.
  205.  
  206. (END INCLUDED QUOTES)
  207.  
  208. >>In principle, underlying generative models are more complete
  209. >>than descriptions at the level of the phenomena. But in
  210. >>practice, the former might not be able to predict better than
  211. >>the latter, due to the complexity of the underlying mechanisms
  212. >>and/or hair-trigger situations.
  213.  
  214. >I suppose that in some imaginary case that might be true. So far,
  215. >however, all the generative models actually developed and tested
  216. >under PCT have predicted a lot better than any descriptive models
  217. >have done. I'm not going to worry about complexity of underlying
  218. >mechanisms and hair-trigger effects until I run into them.
  219.  
  220. But you say that PCT tracking models fail to predict cursor position over time
  221. with sufficient accuracy for true scientific work. The reason, you say, is
  222. "noise" or "anomalies." Have you tried to make underlying generative models
  223. for the "noise"? I think you have run into complexity and/or hair-trigger
  224. effects and not realized it. I suspect that it will be impossible to predict
  225. cursor position over time better by using underlying generative models of
  226. "noise" than by using descriptive statistics to "model" the "noise."
  227.  
  228. >Fine. I'll give you a data record showing the cursor, target, and
  229. >handle behavior point by point -- the raw data. I will generate
  230. >the disturbance pattern at random, and scout's honor will fit the
  231. >control model to the behavior without using any information about
  232. >the disturbance or even knowing what disturbance pattern was
  233. >created.
  234.  
  235. To adjust the parameters in a PCT model, you run trial models successively,
  236. with the loop closed, using the given disturbance, and look for the best fit
  237. to "real" handle position over time, right? To adjust the parameters in a
  238. descriptive "model," the behaviorist would need to do the same. To be more
  239. explicit, the fitting process requires that one USE the disturbance, even
  240. though one needn't KNOW what it is. OK? You sent me data for handle and cursor
  241. positions in a run, but what I really need to fit the parameters is the
  242. ability to run the model with the feedback connection operative. I could do
  243. that with your software, I suppose.
  244.  
  245. >>You devise an S-R model that will predict the cursor and handle
  246. >>behavior for a new randomly-generated disturbance pattern,
  247. >>unknown to either of us in advance, with exactly the same target
  248. >>behavior. I will predict the new handle and cursor behavior with
  249. >>the control-system model; you predict them with your S-R model.
  250. >>We will then compare the results. You can use any definition of S
  251. >>and R that you please, and any number of integrals or derivatives
  252. >>that you can get from the data.
  253.  
  254. >>Any operations you like. But whatever you use, the S-R model must
  255. >>be expressed as H = f(C,T).
  256.  
  257. >I will be extremely interested to see what you decide to use for
  258. >C, without knowing what the disturbance is.
  259.  
  260. How about H = K * integral(C - T)? (K is a constant to be adjusted for best
  261. fit to the data by running the simulation with the model in it). That's just a
  262. first cut, of course, since it doesn't predict the cursor position well enough
  263. for "true science."
  264.  
  265. >>Then you go through a long list of red herrings. What I meant
  266. >>to say is that various PCT models such as proportional,
  267. >>proportional-integral, and proportional-integral-derivative,
  268. >>with various nonlinearities and various parameters, and various
  269. >>descriptive "models" with various functions and parameters, ALL
  270. >>give about equally high correlations between predicted handle
  271. >>positions and actual handle positions, but all do NOT give
  272. >>equally high correlations between predicted cursor positions
  273. >>and actual cursor positions.
  274.  
  275. >How do you know they all give about equally high correlations?
  276. >Isn't all this a conjecture?
  277.  
  278. A testable conjecture. If I make a PID descriptive "model," maybe it will fit
  279. the cursor position better. And a bit of lag might help, too. Or maybe your
  280. model is already "noise"-limited. If so, then adding a noise term should
  281. improve prediction of cursor position IN A STATISTICAL SENSE, AVERAGED OVER
  282. MANY RUNS.
  283.  
  284. >>I believe that the PCT models used to predict tracking can be
  285. >>interpreted also as functional "models" -- the choice of
  286. >>interpretation (underlying generative model or function
  287. >>"model") depends only on whether one envisions a reference
  288. >>signal for target position inside the organism (thus explaining
  289. >>why cursor position is subtracted from target position) or one
  290. >>simply notes that prediction is good if there is such a
  291. >>subtraction in the function relating "input" to "output" at
  292. >>each moment and doesn't care about explaining why.
  293.  
  294. >Sure. The canonical mathematical forms are the same whether you
  295. >think of the signals as being real or not. If you're incurious
  296. >about how the mathematical functions are actually implemented,
  297. >you can just leave it there.
  298.  
  299. Then the argument is over interpretation of models, not over the models
  300. themselves. The behaviorist will happily use your (or a better predicting)
  301. closed-loop model (perhaps with a descriptive statistical term to model
  302. "noise") and call it an input-output/descriptive/functional relationship
  303. "model." And you will yell "Foul!" The sole determinant distinguishing your
  304. interpretation from that of the behaviorist is the external stimulus vs.
  305. internal reference signal issue. The math is the same.
  306.  
  307. As ever,
  308.  
  309. Greg
  310.