home *** CD-ROM | disk | FTP | other *** search
/ Hacker 2 / HACKER2.mdf / cud / cud511c.txt < prev    next >
Text File  |  1995-01-03  |  16KB  |  275 lines

  1. Date: 01 Feb 93 22:51:51 CST
  2. From: Jim Thomas <tk0jut2@mvs.cso.niu.edu>
  3. Subject: File 3--How does the SPA Calculate Piracy?
  4.  
  5. The Software Protection Association (SPA) estimates that software
  6. piracy has declined between 1989-91. But, says the SPA, piracy still
  7. cost the industry over $1.2 billion in lost revenues in 1991.  Critics
  8. argue that the piracy rate and its costs are grossly over-estimated.
  9. The SPA believes that its estimates, while perhaps imperfect,
  10. nonetheless are quite conservative and, if anything, significantly
  11. underestimate the extent of software piracy.  Who's right?  How does
  12. the SPA arrive at its estimates?  The information below comes from SPA
  13. documents and from SPA David Tremblay, SPA's Research Director.
  14.  
  15. Identifying and counting behaviors that are normally hidden presents
  16. several methodological problems.  Calculating the extent of piracy is
  17. no exception. First, there is no victim in the traditional sense.
  18. There are no snatched purses, dead bodies, empty bank accounts,
  19. trashed computers, or other directly obvious signs of predation.
  20. Therefore, we rarely have direct knowledge of an alleged "offense."
  21. Second, the concepts used to define or measure an "offense" can pose
  22. particular problems, because definitions are subject to imprecision.
  23. Third, "victims" of piracy are often unaware that they are victims
  24. until informed by someone who measures victimization, such as the SPA.
  25.  
  26. The "DARK FIGURE OF CRIME" is the knowledge-gap between crimes KNOWN
  27. to have occured and crimes that ACTUALLY occured.  No existing
  28. methodolgy can precisely measure this dark figure, and even the most
  29. sophisticated provide only approximations.  It's therefore not
  30. surprising that the SPA's attempts to measure the "dark figure of
  31. piracy" face methodological problems.
  32.  
  33. The Methodology
  34.  
  35. Four sets of facts and an assumption underlie the SPA's methodology.
  36. One set of facts is hardware sales from Dataquest, a marketing
  37. research company in San Jose, Calif.  The calculations begin by
  38. determining the number of Intel- and MacIntosh-based PCs sold during a
  39. given year.
  40.  
  41. The second set of data derives from an SPA reporting program in which
  42. about 150 of the generally larger companies report their unit sales
  43. and revenue to the SPA.  The business applications sales are taken
  44. from the report and used to estimate the the total unit sales of
  45. software in the U.S. in a given year.  Operating systems are excluded.
  46. The data do not constitute a random sample, but are based on voluntary
  47. self-reporting of the participating companies. This method is common
  48. in survey research and, if used with caution, the lack of randomness
  49. or representativeness of the population surveyed need not be a
  50. problem.
  51.  
  52. The third set of facts is the average number of applications that
  53. users are estimated to have on their personal computers.  This body of
  54. data comes from member research that is sent back to the SPA.  The
  55. members obtain this information from several sources, including
  56. surveys of their own customer base and from returned registration
  57. cards. The SPA estimates that the typical DOS (or Intel-based) PC user
  58. has three applications, and the typical MacIntosh user has five. One
  59. reason that Mac users may have more than Intel-based users is the ease
  60. of use and the cross-learning between different Mac programs that
  61. reduces the learning curve and better-integrates the Mac programs with
  62. each other.
  63.  
  64. The fourth datum is the average price for a software program in a
  65. given year.  However, in calculating the total dollar volume of
  66. revenues lost to piracy, David Tremblay indicates that "street value"
  67. prices are factored in, rather than assuming that each program would
  68. sell for market list price.
  69.  
  70. Finally, the methodology is based on the ASSUMPTION that all of the
  71. units of software that are purchased in a calendar year are purchased
  72. by or for use on PCS that are new that year. It assumes no application
  73. sales to computers purchased in previous years.
  74.  
  75. These data are then plugged into a formula (figures are illustrative):
  76.  
  77. 1. The PC hardware sales (in number of units) are multiplied by the
  78. number of applications used. If there are 1 million Intel-based units
  79. sold, and each has 3 commercial software applications (excluding the
  80. operating system itself), we get a figure of 3 million.
  81.  
  82. 2. The number of applications used is subtracted from the number of
  83. applications purchased during that year. If 2.4 million applications
  84. are sold, the difference is 600,000. This is assumed to be the number
  85. of applications pirated.
  86.  
  87. 3. The number of applications pirated is then multiplied by the
  88. average cost of a software package, which has declined from $189 in
  89. 1989 to $152 in 1991.
  90.  
  91. David Tremblay candidly recognizes the methodological problems,
  92. although he feels that, on balance, the problems understate rather
  93. than overstate the level of piracy.  He recognizes several market
  94. problems that could affect the estimates (the skewing directions are
  95. my own):
  96.  
  97. 1) Since 1989, the average price per software application has
  98. decreased. This skews DOWNWARD the proportion of dollar losses from
  99. year to year.
  100.  
  101. 2) Hardware sales have been revised downward by Dataquest, which
  102. reduces the base number of PCs on which piracy estimates are based.
  103. This skews the piracy estimate UPWARD.
  104.  
  105. 3) Contrary to the assumption of "no application sales to installed
  106. base," there is evidence that an increasing percentage of software is
  107. being sold for use on existing PCs.  This skews the piracy estimate
  108. UPWARD.
  109.  
  110. There are additional problems. Among them:
  111.  
  112. 1) The total software sales include sales of upgrades.  This would
  113. seem to under-estimate the extent of illicit software, because it
  114. over-estimates the base-figure of software sold.  For example, if 100
  115. PCS are sold in a given year, and if each PC has an average of three
  116. applications, we would expect 300 applications to be sold. If,
  117. however, we find that only 270 applications are sold, the "piracy
  118. score" would be 300-270= 30; 30/300 = .1, or ten percent. If upgrades
  119. are included, and if 20 percent of sales are upgrades, that means
  120. 300-216 = 84; 84/300 = .28, or a 28 percent piracy rate.  Including
  121. upgrades skews the piracy estimate DOWNWARD but the costs of piracy
  122. UPWARD.
  123.  
  124. This, however, is misleading, because the base number of applications
  125. is taken for *all* PCs, not just the PCs purchased in the first year.
  126. There is no evidence to suggest that the number of applications on a
  127. PC declines overtime. The evidence, as the SPA acknowledges, is the
  128. opposite.  Hence, the base-figure of total applications (3) does not
  129. give an accurate expectation of the expected number of software sales,
  130. which would dramatically inflate the base of software sales.  Consider
  131. this example: Person A purchases a computer and three software
  132. programs in 1989. Person A purchases two more programs in 1990, and
  133. one in 1991. Person B purchases a computer in 1991 and three
  134. applications in 1991. Assuming that they are the only ones who
  135. purchased software or hardware in 1991, the average number of
  136. installed applications on a PC is 4.5. The number of software sales in
  137. 1991 is 4. An awkward percentage aside, The piracy score is .5 (half a
  138. program, or 12.5 percent piracy rate). In reality, all applications
  139. can be matched to sales, but the method's assumptions inflate the
  140. score.  It's currently difficult to assess how severely inclusion of
  141. installed applications on previously purchased computers exaggerates
  142. the piracy figure. But, if the SPA's current piracy estimate of 20
  143. percent is correct, even a small influence would produce a dramatic
  144. inflation of the estimate.  The SPA's method of including all
  145. installed applications in its base data, while restricting comparison
  146. to only applications purchased in the most recent year, is to my mind
  147. a fatal flaw.
  148.  
  149. In short, the applications on a PC include not only applications
  150. purchased the first year, but also include all those collected in
  151. subsequent years.  Further, even if upgrades are included (which would
  152. push the piracy score DOWNWARD), the price of upgrades at street
  153. prices is generally a fraction of cost for a program's first-purchase,
  154. and failing to take this into account skews loss of revenue UPWARD.
  155.  
  156. 2) A second problem involves the reliability (consistency) and validity
  157. (accuracy) of reporting methods of company-generated data, especially
  158. registration card data.  It cannot be assumed that the methodological
  159. procedures of different reporting companies are either consistent
  160. among themselves (which means they may not be reporting the same
  161. things) or that their procedures are uniformly accurate. Differing
  162. definitions of concepts, variations in means of tracking and recording
  163. data, or differences in representative are but a few of the problems
  164. affecting reliability and validity. This could skew estimates EITHER
  165. upward or downward.
  166.  
  167. 3) The value of lost revenue also is dramatically inflated by other
  168. questionable assumptions.  For two reasons, it cannot be assumed that
  169. every unpurchased program represents a lost sale.  First, there is no
  170. evidence to support, and much evidence to challenge, the assumption
  171. that if I did not possess a copy of dBase or Aldus Pagemaker
  172. "borrowed" from my employer that I would purchase it. The ethics of
  173. such borrowing aside, such an act simply does not represent nearly
  174. $1,000 of lost revenue.  Second, as an actual example, I (and many
  175. others at my university) have dBase and Word Perfect (and many other
  176. programs) licitly installed on a home or office PC. These two programs
  177. alone have a street value of about $700. I would include them as
  178. "installed" programs in a survey.  However, I did not purchase either
  179. program. Hence, they would not show up in sales statistics, and would
  180. therefore be attributed to "piracy." But, I did not obtain them
  181. illicitly. They were obtained under a site license and are installed
  182. licitly.  Consider another example. When I purchased a PC in 1988, it
  183. came (legitimately) loaded with two programs. I bought two more.  Now,
  184. I have four legitimate programs loaded, but only two would show up in
  185. normal sales figures. It would seem, from the statistics, that I had
  186. two "pirated" programs--two purchased, two unpurchased, even though
  187. there were none.  BOTH the piracy score and the lost revenue estimate
  188. are skewed UPWARD.
  189.  
  190. Although the subject of a separate article, the SPA's method also
  191. fails to consider the possibility that casual copying and sharing may
  192. enhance rather than reduce sales by creating a "software culture" and
  193. increasing the visibility and end-user facility with the products.  If
  194. sales are increased, it would skew the lost revenues UPWARD.  Whatever
  195. the result, this is an assumption that cannot be discarded without
  196. strong empirical evidence.
  197.  
  198. These are just a few of the problems that inflate the overall picture
  199. of piracy and why I cannot accept the figure given by the SPA as
  200. accurate. And, if the piracy rate for 1991 is only about 20 percent
  201. (and in decline), it would appear that--even if the problem is only
  202. mildly inflated--the losses are far, far less (and the problem
  203. therefore not as severe) as anti-piracy advocates claim.  Yet, despite
  204. dramatic evidence of decline on a variety of key indicators, SPA
  205. rhetoric, its advocacy for broader and more punitive legislation, and
  206. its lucrative aggressive litigation campaigns continue to escalate.
  207.  
  208. A caveat: David Tremblay, the SPA Research Directory, makes no claims
  209. about total accuracy. He is also aware of and quick to point out some
  210. of the methodological problems. He would not agree with my view of at
  211. least some of the problems, and perhaps has antidotes for others.  In
  212. my own discussions with him, he was careful not to speak beyond the
  213. data, and--like any good methodologist--approached the task of
  214. calculating piracy as a puzzle. His own attitude, if I understood him
  215. correctly, was that he's more than willing to modify the method with a
  216. better procedure if one can be pointed out.  Perhaps I misunderstood
  217. him, but I was continually left with the impression that his goal was
  218. not to "prove" a preferred outcome, but to refine the data and method
  219. to provide as accurate an estimate possible, whatever answer it might
  220. provide. In short, he has no preconceived ideological ax to grind in
  221. coming up with his figures.
  222.  
  223. It should be noted that if a different methodology were used, it is
  224. quite possible that both the extent of piracy and the lost revenue
  225. costs *could* be much higher than the SPA's estimates. However, at
  226. stake is *this* methodology. Contrary to SPA claims, *this*
  227. methodology appears to INFLATE the frequency and costs.
  228.  
  229. This, however, does not alter the fact that SPA press releases and
  230. other material appear to manipulate the data to promote a distorted
  231. image of piracy. We can agree that there are those who unethically
  232. (and illegally) profit from piracy, and we can agree that if one uses
  233. a commercial software program regularly, payment should be made. This
  234. does not mean that we must also accept the dramatic image of rampant
  235. piracy and multi-billion dollar revenue loss by casual "chippers."
  236. Software piracy is, according to SPA data, in dramatic decline.
  237. Evidence suggests that this decline is the result of education and
  238. awareness, rather than coercive litigation.  At stake is not whether
  239. we accept ripoff, but rather what we do about it. The statistical
  240. method and its results do not seem sufficient to warrant increased
  241. demands for tougher piracy laws or for expanding the law enforcement
  242. attention to address what seems to be a declining problem.
  243.  
  244. If I am correct in judging that the SPA's estimate of piracy is
  245. significantly inflated, then it seems that they are engaging in
  246. hyperbole to justify its highly publicized litigation campaign.  Some
  247. might find this a good thing. My own concern, however, is that the
  248. litigation campaign is a revenue-generating enterprise that--to use
  249. the SPA's own promotional literature--resembles a law unto itself,
  250. more akin to a bounty hunter than a public-interest group. The SPA
  251. appears to have an image problem, and the root of the image problem
  252. lies in some critics see as speaking beyond the data in describing
  253. piracy and in using the law to fill its coffers. It is unfortunate
  254. that the many valuable things the SPA does are overshadowed by its
  255. self-laudatory high-profile image as a private law enforcement agency.
  256.  
  257. The methodology underlies an ideological opposition not just to
  258. intellectual property, but to human interaction and socal norms.  In
  259. promoting a zero-tolerance attitude toward a strict definition of
  260. "piracy" and rigid adherence to the limitations of shrinkwrap
  261. licenses, the SPA would isolate the causal swapper and criminalize
  262. along with major predators non-predators as well. As Richard Stallman,
  263. a promoter of freeware, argues in the first issue of _Wired_ Magazine
  264. (p. 34), violation of shrinkwrap is called piracy, but he views
  265. sharing as being a "good neighbor:"
  266.  
  267.      I don't think that people should ever make promises not to
  268.      share with their neighbor.
  269.  
  270. It's that gray area between being a good neighbor and crossing over
  271. into unacceptable behavior that, to my mind, poses the dilemma over
  272. which there is room for considerable honest intellectual disagreement.
  273.  
  274. Downloaded From P-80 International Information Systems 304-744-2253
  275.