home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1993 #3 / NN_1993_3.iso / spool / bit / listserv / qualrsl / 2097 < prev    next >
Encoding:
Text File  |  1993-01-28  |  13.0 KB  |  252 lines

  1. Newsgroups: bit.listserv.qualrs-l
  2. Path: sparky!uunet!uvaarpa!darwin.sura.net!spool.mu.edu!torn!nott!cunews!tgee
  3. From: tgee@alfred.carleton.ca (Travis Gee)
  4. Subject: Re: Coding in qualitative analysis
  5. Message-ID: <tgee.728144542@cunews>
  6. Sender: news@cunews.carleton.ca (News Administrator)
  7. Organization: Carleton University
  8. References: <9301240333.AA11087@titan.ucs.umass.edu> <1993Jan26.113241.1@vaxa.strath.ac.uk>
  9. Date: Wed, 27 Jan 1993 14:22:22 GMT
  10. Lines: 242
  11.  
  12.      First, let me warn you that this is a somewhat long posting. The
  13. discussion which the coding thread has engendered is a rich one,
  14. covering several topics.  I have collated the ones which concern my
  15. previous postings in an effort to deal with what I see as key issues
  16. in one fell swoop. References are provided at the end.
  17.  
  18.      Monika; thank you for the example of objective hermeneutics (OH).
  19. However, it still seems to me rather like psychoanalysis without
  20. benefit of a psychoanalysand (at least, after the initial phase). I
  21. would have a good deal of cognitive dissonance applying it "as is" to
  22. data. The problem of generating as many stories as possible
  23. that fit the data may easily result in more than one theory that
  24. accounts for *all* of the data.  To whom does the research team refer
  25. for the tie-breaking vote? 
  26.      Re: analysis, one *should* focus on data that seem to invalidate
  27. the theory under consideration. I agree wholeheartedly. However, the
  28. data are limited to those obtained by our method, and we too easily
  29. select a method which will suit the theory being examined.  Should we
  30. not consider a "null method" which is as theory-free as possible, to
  31. maximize the potential for conflicting data?  I suggest that
  32. "negotiating an understanding" in Harre's sense leaves at least part
  33. of the control out of the hands of the researcher, minimizing the
  34. potential for bias.
  35.  
  36. Nora L. Ishibashi then joins in thus: 
  37.  
  38. >On the other hand, if we are doing a study that looks for
  39. >patterns in what the interviewee has stated, that compares aggregate kinds
  40. >of themes or patterns from several interviewees or that analyzes the
  41. >interview for the process rather than factual content, the interviewee may
  42. >not  have more to add.
  43.  
  44.      This brings up the question of level-of-analysis.  In qualitative
  45. research, are we willing to ignore the individual differences to come
  46. up with some kind of normative statement about "the population"?  It
  47. is true that if we are abstracting away content in favour of process
  48. or syntactic/morphological items, then we are doing what statisticians
  49. do by using numbers. Indeed, the final report will probably contain a
  50. table or two.  But much qualitative research does not ignore the richness
  51. of the single case. What it does seem to ignore is the fact that it is
  52. hard to capture all of the possible riches in one sitting. 
  53.      I'm not saying that abstracting away is an evil. Indeed, it is
  54. the essence of our ability to cope with the world.  Rather, I'm saying
  55. that abstraction without proper validation is easily construed as 
  56. fiction. The mode of validation is a key issue, and what I really want
  57. to deal with here. How can we figure out what people are on about with
  58. as few errors as possible (a discussion of Types of Errors is below).
  59. In addition, do our data have any use once we've counted up the number
  60. of (variable of choice)? Can we analyze *both* quantitatively across
  61. people and qualitatively within people? If we do both, do we get the
  62. same answers? If we don't get the same answers from both, what's wrong
  63. with our theory (or at least, what are its limitations)? 
  64.  
  65. I previously politicianed my way out of a question thus: 
  66.  
  67. >     Secondly, let's turn that last question around, and ask "how
  68. >could the interviewee benefit from the researcher's evaluation of the
  69. >interviewee's perspective."
  70.  
  71. On this topic, Nora continues: 
  72. > If we introduce the question of whether it would be
  73. >helpful to the interviewee to hear the results of the study, that seems to
  74. >me to be a different issue altogether from a consideration of methods of
  75. >arriving closer to an understanding of answers to a research question.
  76.  
  77. To which flames Nicholas Sturm adds fuel: 
  78.  
  79. >>  That may be a morally useful thing to do, but it's not quite the same
  80. >>as the original "research goal".
  81. >Sharing some of the
  82. >findings could be of great benefit in such cases.  A fair payback for
  83. >participation, don't you think?
  84. >>  If the interview is being repaid, perhaps he should just be made
  85. >>co-author of the report.  Seems rather like what one is desiring by
  86. >>requesting the 'validation.'
  87. >> But pardom my butting in.  I should just remain a watcher here.
  88.  
  89.      Point taken!  The rhetorical turn of phrase is too often the
  90. irresistible turn of phrase. Rather than deflecting the question of
  91. what the second phase of my proposed validation method adds to the
  92. origian research goal (and dragging up the whole messy business of
  93. *why* we do research), I should have tackled it head on. Here is my
  94. belated attempt to do so.
  95.      The immediate research goal is to make a statement about what is
  96. going on.  My main objection to the standard method is an
  97. epistemological one: "Can we make such a statement without reference
  98. to any constructions which the person to whom the statement refers may
  99. have with respect to said statement?"  If that's only clear to the
  100. lawyers out there, it might be more simply put as "Who's the real
  101. expert?" In OH, there appears to be a contradiction in that every
  102. member of the culture is *in principle* able to come up with a
  103. coherent model based on the same data.  However, the method excludes
  104. *in principle* the possibility of alternative constructions by not
  105. including the views of members of the culture who are not objective
  106. hermeneuticists.
  107.      Brian Little (1972) discusses Us-Models and Them-Models.
  108. Us-models "describe the behaviors of those persons who share the
  109. perspective of the theorist proposing the model."  Them-models
  110. "describe the behaviors of anyone who does not share the particular
  111. perspective of the theorist proposing the model <such as> subjects,
  112. patients, wives, the dog next door, and rival theorists."
  113. Psychoanalysis (and, so far as I understand it, OH) are particularly
  114. duplicitous in that their assumptions about humankind are such that
  115. Us-models apply to the analysts, while Them-models apply to everyone
  116. else. (L.W. Brandt carries this point through in detail in his book
  117. _Psychologists_Caught.) The reasons given for this unparsimonious
  118. subdivision of humanity are at best vague, and at worst, nonexistent.
  119. The key point to be made is that a theory about humans which
  120. reflexively accounts for both the theorist and the theorized-about is
  121. conceputally preferable to a non-reflexive theory which does not
  122. account for this.  OH, as described by Monika, assumes a continuity
  123. between theorists and the population, then proceeds as if there were a
  124. disjunction. Thus it cannot provide such a comprehensive theory.
  125.  
  126. On a related topic, Al Furtrell writes (quoting >me):
  127.  
  128. >     My use of "Type I" and "Type II" just referred to the *kind* of
  129. >errors that were being made, with no implication abut  statistical
  130. >measures. (Some were used in my study, but I used a pretty minimalist
  131. >approach to stats, at least by today's number-crunching standards.)
  132. >The key point is that qualitative methods can be prone to such errors,
  133. >because we make assertions based on data. In the spirit of this group
  134. >I am loath to require quantification of such errors and am rather more
  135. >interested in the form of the errors we researchers can make.
  136.  
  137. >>I don't want to let Travis off the hook so easily.  Because a Type I or
  138. >>alpha error is committed when one rejects a null hypothesis when one should
  139. >>not have (in "regular" talk that means that we reject a true null
  140. >>hypothesis) and a Type II or beta error is committed when one fails to
  141. >>reject a false null hypothesis, statistics and quantification is inherent
  142. >>to any discussion of these types of errors.  More important, the introduction
  143. >>of the possibility of these errors suggests a mind set at odds with the
  144. >>notion of a "qualitative" study.  One cannot make a Type I or Type II error
  145. >>unless one has tested an hypothesis -- and many folks on this list have
  146. >>no problem with hypotheses as such except that the types of research questions
  147. >>that interest them do no lend themselves to hypothesizing or to quantification.
  148.  
  149. >>Basically, I am surprised that the idea of Type I and Type II errors would
  150. >>be an issue in the study he describes.  That is why I found it interesting
  151. >>in the first place.  I thought he had developed an innovative way of
  152. >>merging the qual/quant dichotomy.  His response suggests otherwise.
  153.  
  154.      No it doesn't!  With all due respect, Al, your post is evocative
  155. of the extent to which the hypothesis-testing model has permeated the
  156. minds of psychosocial researchers. One *cannot* infer that a statistic
  157. has been perpetrated by the simple fact that a Type I or Type II error
  158. has been made when we look at the nature of these errors.
  159.      To return to a point made above (by me), the immediate goal of
  160. the research is to make error-free statements about the state of the
  161. world. If we say "there is x" when there is not, we make an error of
  162. the first kind.  If we say "there is not x" or fail to say "there is
  163. x" when there *is* an x out there, we commit an error of the second
  164. kind.  Because the hypothesis- testing model offers clear decision
  165. rules for making such statements, Type I and Type II errors have come
  166. to be associated with statistical inference.  However, this is a
  167. chance of historical development, not necessity.  While in qualitative
  168. research, we may not be able to quantify the number of such errors as
  169. easily as we can in pure quantitative research, we can still make
  170. them!  We don't even have to have a hypothesis to test, because it is
  171. the final *statement* which is or is not correct, irrespective of how
  172. it was derived.  
  173.  
  174. Finally, Dr. Stephen K. Tagg observes: 
  175.  
  176. >>I believe any research is an overlap of a series of samples (purposive sample
  177. >>not statistical) of various "universes of content"
  178. >>Including:
  179. >>    Informants
  180. >>    Things researchers might ask informants to do (including answer quest)
  181. >>    Ways that researchers get informants to inform
  182. >>    meanings for informants
  183. >>    meanings for researchers
  184. >>    meanings for the market for research publication
  185.  
  186.      Exactly! And when the researcher intrudes into that universe of
  187. content, he or she brings along residue from a different universe.
  188. However, small the difference may be, the only way to check for
  189. contamination is to validate against another sample. Indeed, in
  190. research we step lightly from one universe to the next, carrying along
  191. conceptual moondust from place to place on our clumsy feet.  This in
  192. fact was my argument against extensive quantitative analysis of a
  193. series of interviews (in my M.A. thesis).  Because I got better as an
  194. interviewer, and learned more about my population as I went along, the
  195. last interview would be incommensurable with the first.  Therefore,
  196. the set of interview questions could be continually expanded as the
  197. study progressed (reducing those nasty Type II errors).
  198.  
  199.      This fact led me to my position of the non-privileged researcher.
  200. *I* was the student, and the interviewees were experts teaching me
  201. about what it's like and what it takes to become a top jazz musician
  202. (the topic of my thesis for those who just tuned in).  My statements
  203. had to withstand *their* scrutiny as well as those of my committee.
  204.  
  205.      Finally, (Nicholas!) if validating those samples means more
  206. interviewing, so be it.  We allow for that from the start and budget
  207. ourselves accordingly. And if we say that something is there and 5 of
  208. our experts say it's not, we have some explaining to do! In a
  209. subsequent posting, Dr. Tagg notes that :
  210.  
  211. >>I don't think it is possible for the sampling of each universe to be perfect
  212. >>(ie there's reliability/validity issues): effectively there are cost/benefit
  213. >>optimizations to make.
  214.  
  215. And we all make them. I'd have loved to have had *all* of my
  216. interviewees go over the report. But logistics are always a hassle,
  217. and at some point we have to draw a line. Sort of like selecting 
  218. alpha=.05 over alpha=.01  .
  219.  
  220. >> Unfortunately a lot of research design consists of
  221. >><<lets re-do famous-article's research except tweaking this attribute>>
  222. >>and so the whole body of research has no chance of being representative of the
  223. >>universes of interest because previous researcher's purposive sampling
  224. >>compromises are perpetuated..
  225.  
  226. Unfortunately accurate! Well, back to slugging away at my stats
  227. courses! Thanks for reading this far, now go get a coffee :-)
  228.  
  229.  
  230. References:
  231.  
  232. Brandt, Lewis Wolfgang, (1982). Psychologists caught. University of
  233.      Toronto Press; Toronto.
  234.  
  235. Little, B.R. (1972). Psychological man as scientist, humanist and
  236.      specialist. Journal of Experimental Research in Personality, 6,
  237.      95-118. 
  238.  
  239.  
  240.  
  241. ((((((((((((((((((((((((((((((((((((((((((((((((((((((((((
  242. Travis Gee ()  tgee@ccs.carleton.ca     ()
  243.            ()  tgee@acadvm1.uottawa.ca  ()        ()()()()
  244.            ()                           ()              ()
  245.            ()                           ()()()()()()()()() 
  246. Recent government figures indicate that 43% of all statistics
  247. are utterly worthless.  
  248.  
  249.  
  250.  
  251.  
  252.