home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #31 / NN_1992_31.iso / spool / bit / listserv / qualrsl / 2011 < prev    next >
Encoding:
Text File  |  1992-12-27  |  7.2 KB  |  136 lines

  1. Comments: Gated by NETNEWS@AUVM.AMERICAN.EDU
  2. Path: sparky!uunet!paladin.american.edu!auvm!PSUORVM.BITNET!HJDM
  3. Message-ID: <QUALRS-L%92122701092899@UGA.CC.UGA.EDU>
  4. Newsgroups: bit.listserv.qualrs-l
  5. Date:         Sat, 26 Dec 1992 22:08:22 PST
  6. Sender:       Qualitative Research for the Human Sciences <QUALRS-L@UGA.BITNET>
  7. From:         David Morgan <HJDM@PSUORVM.BITNET>
  8. Subject:      Pt. 2 Quant Journals
  9. Lines: 125
  10.  
  11.    In the previous posting, I argued that rhetorical issues were
  12. more important than reliability issues in getting qualitative work
  13. published in quantitative journals. The reason is that if your
  14. rhetoric is convincing enough, the reviewers may even congratulate
  15. you on using new methods to tackle difficult problems. Of course,
  16. it also helps if you are working on a problem that is central to
  17. their field. But there is no guarantee that this will be enough,
  18. so it also helps to convince them that you have done your work in
  19. a careful and systematic fashion--what I am terming the
  20. reliability issue.
  21.  
  22.    There is no getting around the fact that numerical evidence is
  23. the most effective way to convince quantitative reviewers that
  24. your procedures are acceptable. Thus, I would recommend, if at all
  25. possible, to start the presentation of your results with a couple
  26. of tables. I want to be clear, however, that I am *not* advocating
  27. that anyone should throw together some tables just to sell
  28. qualitative results. If nothing else, you should forgo this
  29. cynical exercise because there is very little likelihood that it
  30. will work. If your numbers don't really have much to do with your
  31. insights, this will be both obvious and annoying to a
  32. quantitatively trained reviewer. If you really do not have a
  33. numerical way of summarizing your argument, then you are better
  34. off to rely on rhetoric, rather than to try to fool your reviewers
  35. in their acknowledged area of expertise.
  36.  
  37.    The simplest way to produce the kinds of numbers that I am
  38. advocating is to do some counting as part of your coding
  39. procedures. I can think of both a strong and weak argument in
  40. favor of including this kind of counting in a qualitative
  41. analysis. The weak argument is that all right to use numbers in
  42. summarizing qualitative analyses because we are not talking so
  43. much about how conclusions are reached as how they are presented.
  44. Thus, the weak argument is that if counts are just alternative
  45. ways of presenting what you feel is worth knowing in your data,
  46. then why not use them to communicate with your intended audience?
  47. (This is similar to points I made in the first posting.)
  48.  
  49.    I should be clear that I am not talking about using the counts
  50. as the primary summary of one's findings. Instead, what I have in
  51. mind is to "motivate" the rest of the analysis through a
  52. preliminary demonstration of "what is in the data" using tables of
  53. counts. When I do this in my own work, the heart of my "results
  54. section" still consists of stating and elaborating the central
  55. themes that I found in the data, and I usually devote more total
  56. page space to quotations than to tables. But I use the tables to
  57. start the presentation, and then follow that with a much thicker
  58. description of not just *what* the numbers showed, but also
  59. discussions about *why* those were the patterns in the data.
  60.  
  61.    This leads me to the strong argument in favor of counting
  62. things in qualitative data. If one in fact has something that is
  63. countable, counting can be a useful way of uncovering patterns in
  64. your data--provided, of course, that one then pursues the deeper
  65. question of why these patterns exist. I have a brief piece coming
  66. out in _Qualitative Health Research_ in January that makes the
  67. case for this approach, which I call qualitative content analysis.
  68. In that article, I go to some effort to distinguish this approach
  69. from traditional forms of content analysis, that use computerized
  70. searches of textual data to produce tables which constitute the
  71. major results of the research. In my view, almost any coding that
  72. is worth doing requires doing your own reading. And numerical
  73. patterns that one finds in text are just a means of reentering the
  74. data to ask more sharply focused questions.
  75.  
  76.    (I might as well add that I wrote this article in response to a
  77. first round of reviews on a substantive article that will also be
  78. coming out in a later issue of that journal. In this case, there
  79. were two reviewers who were very concerned that I had used
  80. numerical procedures in a qualitative analysis. Admittedly, what I
  81. was doing was unfamiliar enough to require some further
  82. explanation, but this does point out that problems surrounding the
  83. use of numbers are not limited to quantitatively oriented
  84. reviewers who are uncomfortable with qualitative analyses.)
  85.  
  86.    As a final topic, I want say a few words about numerical
  87. assessments of inter-rater reliability. This is an issue that
  88. shouldn't really concern qualitative researchers who aren't using
  89. countable code categories. But when we do use such codes, either
  90. through the weak argument that they can be a useful way of
  91. summarizing insights that were arrived at through other means or
  92. through the strong argument that counts can be useful in analyzing
  93. some forms of qualitative data, then we do need to have some
  94. certainty about the integrity of our coding efforts. More to the
  95. point, your quantitative reviewers will probably demand it. (Good
  96. discussions on how to calculate these various "coefficients" can
  97. be found in textbooks on the more numerical variant of content
  98. analysis.)
  99.  
  100.    Do we really know much more after we compute these
  101. reliabilities? In principle, the answer is yes, because they
  102. demonstrate the consistency of our coding principles. In practice,
  103. however, I doubt if they tell us much, because a determined
  104. researcher can almost always reproduce his or her coding
  105. procedures. One of my clinical colleagues laughingly dismissed
  106. inter-rater reliability as a "follie a deux." And what researcher
  107. would pay good money to a coder who wasn't able to use the
  108. project's coding system (i.e., apply the codes in the same way
  109. that the researcher would).
  110.  
  111.    In the limiting case, these calculations undoubtedly do weed
  112. out a few efforts at coding that are so personal that the
  113. researcher cannot find anyone else who is capable of reproducing
  114. them. I personally find that a more valuable use for these
  115. procedures is in the early stages of coding, to point to code
  116. categories that need more thought and to alert coders when they in
  117. fact are seeing different things in the data. Truth to tell,
  118. however, quantitative researchers do attach considerable
  119. importance to these numbers, so, when we go their journals, it
  120. behooves us to do likewise.
  121.  
  122.   Inter-rater reliabilities are a good place to close because they
  123. can indeed be an example of what qualitative researchers fear
  124. most: a requirement that we produce numbers which we feel are
  125. virtually meaningless in order to get published. I personally do
  126. not find this to be a serious problem because it does not force me
  127. to distort my data or to make misstatements about how I did my
  128. analyses. In my case, it simply asks me to do a little something
  129. that I personally do not feel should be necessary. But if I
  130. started complaining about all the things that journals expected me
  131. to do just to get published, it would take up a lot more bandwidth
  132. than I've already wasted with this discussion!
  133.  
  134.  
  135. ==>David Morgan hjdm@PSUORVM
  136.