home *** CD-ROM | disk | FTP | other *** search
/ DP Tool Club 17 / CD_ASCQ_17_101194.iso / vrac / sexsysad.zip / SEXSYSAD.EFF < prev   
Text File  |  1994-09-17  |  23KB  |  420 lines

  1. SEX AND THE SINGLE SYSADMIN:
  2. The risks of carrying graphic sexual materials.
  3. Column: Internet World
  4. Approx: 3700 words
  5. March/April 1994 issue
  6.  
  7.  
  8. By Mike Godwin
  9. (mnemonic@eff.org)
  10.  
  11. It's the kind of nightmare that will cause any sysadmin to bolt upright in
  12. bed, shaking, gripping the sheets with white-knuckled fingers.
  13.  
  14. In this nightmare scenario, the facts are simple: you hear a knock at the
  15. door, you answer to discover grim-faced law-enforcement agents holding a
  16. search warrant, and you are forced to stand by helplessly while they seize
  17. your system to search it for obscene or child-pornographic images.
  18.  
  19. In some versions of the nightmare, you may not even have known your hard disk
  20. contained such images; in others, your lack of knowledge may prove to be no
  21. defense in a criminal prosecution for possession of child pornography.
  22.  
  23.  
  24.         A wave of concern about porn
  25.  
  26. In recent months, the Legal Services Department here at EFF (the Electronic
  27. Frontier Foundation) has faced a wave of concern in the United States about
  28. the legal issues raised by online obscenity and child pornography. Most
  29. recently, a nationwide federal investigation into the importing of
  30. child-pornographic computer files led first to several well-publicized
  31. searches and seizures of computers and bulletin-board systems (BBSs) and later
  32. to a number of indictments of computer users on charges relating to possession
  33. or distribution of this material. One result has been that a large number of
  34. BBS operators and network site administrators have contacted EFF with
  35. questions and concerns about their potential liability under obscenity and
  36. child-pornography laws.
  37.  
  38. Why so much concern? Partly, it's that, thanks to the availability of cheap
  39. image scanners, fast modems, and capacious hard disks, a large number of this
  40. country's BBSs and network sites carry GIF (Graphic Interchange Format) files
  41. or other kinds of graphic images with sexual content. These images can range
  42. from centerfold-type nudes to "hard-core" pornography. (For the sake of
  43. simplicity, I will refer to all graphic-image files as GIFs, although there
  44. are a number of other formats commonly available.)
  45.  
  46. Just as the growth of the consumer VCR market was linked to a growth in the
  47. market for adult videos, the increasing availability of certain kinds of
  48. consumer computer technology has led to a rapid increase in GIF-file traffic.
  49. System operators who might never consider opening an adult book or video store
  50. have either allowed or encouraged sexually oriented images to be exchanged on
  51. their systems. To understand this difference in attitudes one has to
  52. understand how online conferencing systems are generally run--as forums for
  53. their users to talk to each other, and to trade computer programs and files
  54. with each other.
  55.  
  56.  
  57.         How porn gets online
  58.  
  59. Although these problems pervade the world of the Internet, the easiest case to
  60. understand is the microcomputer-based BBS. The operator of a BBS typically
  61. dedicates a computer and one or more phone lines at her home or business for
  62. the use of a "virtual community" of users. Each user calls up the BBS and
  63. leaves public messages (or, in many cases, GIFs) that can be read by all other
  64. users or private mail (which may include GIFs) that can be read by a
  65. particular user or both. BBSs become forums--digital public houses, salons,
  66. and Hyde Park corners--for their users, and users with similar interests can
  67. associate with one another without being hindered by the accidents of
  68. geography. By some estimates, there are currently in excess of 40,000 BBSs
  69. throughout North America, randing from low-end free-access BBSs with only one
  70. or two phone lines to BBSs run by companies, government agencies, user groups,
  71. and other organizations.
  72.  
  73. A step up from the BBS in complexity is the conferencing system or information
  74. service. These systems differ in capacity from BBSs: they have the capability
  75. of serving dozens, or hundreds, of users at the same time. But they're like
  76. BBSs in that uploaded files can be found at a fixed geographic location. A
  77. further step up are entities like Fidonet and Usenet, which, because they're
  78. highly distributed, decentralized conferencing systems, add complications to
  79. the legal issues raised by the computerization of sexual images.
  80.  
  81. Internet nodes and the systems that connect to them, for example, may carry
  82. such images unwittingly, either through uuencoded mail or through uninspected
  83. Usenet newsgroups. The store-and-forward nature of message distribution on
  84. these systems means that such traffic may exist on a system at some point in
  85. time even though it did not originate there, and even though it won't
  86. ultimately end up there. What's more, even if a sysadmin refuses to carry the
  87. distributed forums most likely to carry graphic images, she may discover that
  88. sexually graphic images have been distributed through a newsgroup that's not
  89. obviously sexually oriented.
  90.  
  91. Depending on the type of system he or she runs, a system operator may not know
  92. (and may not be able to know) much about the system's GIF-file traffic,
  93. especially if his or her system allows GIFs to be traded in private mail.
  94. Other operators may devote all or part of their systems to adult-oriented
  95. content, including image files.
  96.  
  97. Regardless of how their systems are run, though, operators often create risks
  98. for themselves under the mistaken assumption that a) since this kind of
  99. material is commonplace, it must be legal, and b) even if it's illegal, they
  100. can't be prosecuted for something they don't know about. EFF's Legal Services
  101. Department has been working actively to educate system operators about the
  102. risks of making these assumptions.
  103.  
  104.  
  105.         What counts as "obscene"?
  106.  
  107. First of all, we've explained that the fact that graphic sexual material is
  108. common on BBSs doesn't mean that it's not legally obscene and illegal in their
  109. jurisdiction.
  110.  
  111. As Judge Richard Posner comments in the October 18, 1993, issue of THE NEW
  112. REPUBLIC, "Most "hard-core" pornography--approximately, the photographic
  113. depiction of actual sex acts or of an erect penis--is illegal." even though it
  114. is also widely available. (Let me emphasize the word "approximately"--Posner
  115. knows that there are countless exceptions to this general rule.) That is,
  116. distribution of most of this material is prohibited under state or federal
  117. anti-obscenity law because it probably would meet the Supreme Court's test for
  118. defining obscenity.
  119.  
  120. But what precisely is the Court's definition of obscenity? In Miller v.
  121. California (1973), the Court stated that material is "obscene" (and therefore
  122. not protected by the First Amendment) if 1) the average person, applying
  123. contemporary community standards, would find the materials, taken as a whole,
  124. arouse immoral lustful desire (or, in the Court's language, appeals to the
  125. "prurient interest"), 2) the materials depict or describe, in a patently
  126. offensive way, sexual conduct specifically prohibited by applicable state law,
  127. and 3) the work, taken as a whole, lacks serious literary, artistic, political
  128. or scientific value.
  129.  
  130. This is a fairly complex test, but most laymen remember only the "community
  131. standards" part of it, which is why some system operators are under the
  132. mistaken impression that if the material is common and available, "community
  133. standards" and the law must allow it.
  134.  
  135. In layman's terms, a jury (or a judge in a nonjury case) would ask itself
  136. something like these four questions:
  137. 1) Is it designed to be sexually arousing?
  138. 2) Is it arousing in a way that one's local community would consider unhealthy
  139. or immoral?
  140. 3) Does it depict acts whose depictions are specifically prohibited by state
  141. law?
  142. 4) Does the work, when taken as a whole, lack significant literary, artistic,
  143. scientific, or social value?
  144.  
  145. If the answer to all four questions is "yes," the material will be judged
  146. obscene, and it will be Constitutional to prosecute someone for distributing
  147. it. (It should be noted in passing that pictures of the "hardness" of Playboy
  148. and Penthouse photography have never been found to be obscene--their
  149. appearance in digital form on Usenet sites may create copyright problems, but
  150. they won't create obscenity problems.)
  151.  
  152.  
  153.         The perils of online obscenity
  154.  
  155. In theory, most "hardcore" pornography qualifies as "obscenity" under the
  156. Supreme Court's test. Yet theoretically obscene material is commonly available
  157. in many urban areas--this signifies, perhaps, that the relevant laws, when
  158. they do exist, are underenforced. At EFF, however, we have been telling system
  159. operators that there is no *legal* basis for their assuming that the laws will
  160. remain underenforced when it comes to online forums.
  161.  
  162. For one thing, most of this country's law-enforcement organizations have only
  163. recently become aware of the extent that such material is traded and
  164. distributed online--now that they're aware of it, they're aware of the
  165. potential for prosecution. In a recent case, an Oklahoma system operator was
  166. charged under state law for distribution of obscene materials, based on a
  167. CD-ROM of sexual images that he'd purchased through a mainstream BBS trade
  168. magazine. He was startled to find out that something he'd purchased through
  169. normal commercial channels had the potential of leading to serious criminal
  170. liability.
  171.  
  172. Still another issue, closely related to obscenity law, is whether an online
  173. system creates a risk that children will have access to adult materials.
  174. States in general have a special interest in the welfare of children, and they
  175. may choose to prohibit the exposure of children to adult materials, even when
  176. such materials are not legally obscene. (Such materials are often termed
  177. "indecent"--that is, they violate some standard of "decency," but nevertheless
  178. are Constitutionally protected. If this category seems vague, that's because
  179. it is.) In Ginsberg v. State of New York (1968), the Supreme Court held a
  180. state statute of this sort to be Constitutional.
  181.  
  182. Although there is no general standard of care for system operators who want to
  183. prevent children from having such access, it seems clear that, for a system in
  184. a state with such a statute, an operator must make a serious effort to bar
  185. minors from access to online adult materials. (A common measure--soliciting a
  186. photocopy of a driver's license--is inadequate in my opinion. There's no
  187. reason to think a child would be unable to send in a photocopy of a parent's
  188. driver's license.)
  189.  
  190. It's worth noting that, in addition to the risk, there are also some
  191. protections for system operators who are concerned about obscene materials.
  192. For example, the system operator who merely possesses, but does not
  193. distribute, obscene materials cannot Constitutionally be prosecuted--in the
  194. 1969 case Stanley v. Georgia, the Supreme Court held the right to possess such
  195. materials in one's own home is Constitutionally protected. Thus, even if you
  196. had obscene materials on the Internet node you run out of your house, you're
  197. on safe ground so long as they're not accessible by outsiders who log into
  198. your system.
  199.  
  200. And, in the 1959 case Smith v. California, the Court held that criminal
  201. obscenity statutes, like the great majority of all criminal laws, must require
  202. the government to prove "scienter" (essentially, "guilty knowledge" on the
  203. defendant's part) before that defendant can be found guilty. So, if the
  204. government can't prove beyond a reasonable doubt that a system operator knew
  205. or should have known about the obscene material on the system, the operator
  206. cannot be held liable for an obscenity crime.
  207.  
  208. In short, you can't constitutionally be convicted merely for possessing
  209. obscene material, or for distributing obscene material you didn't know about.
  210.  
  211.  
  212.         Child pornography--visual images that use children
  213.  
  214. When the issue is child pornography, however, the rules change. Here's one of
  215. the federal child-porn statutes:
  216.  
  217.  18 USC 2252: Certain activities relating to material involving the sexual
  218.  exploitation of minors.
  219.  
  220.  (a)Any person who--
  221.  
  222.  (1) knowingly transports or ships in interstate or foreign commerce by any
  223.  means including by computer or mails, any visual depiction, if--
  224.  
  225.     (A) the producing of such visual depiction involves the use of a minor
  226.  engaging in sexually explicit conduct; and
  227.  
  228.     (B) such visual depiction is of such conduct; or
  229.  
  230.  (2) knowingly receives, or distributes, any visual depiction that has been
  231.  transported or shipped in interstate or foreign commerce by any means
  232.  including by computer or mailed or knowingly reproduces any visual depiction
  233.  for distribution in interstate or foreign commerce by any means including by
  234.  computer or through the mails if--
  235.  
  236.     (A) the producing of such visual depiction involves the use of a minor
  237.  engaging in sexually explicit conduct; and
  238.  
  239.     (B) such visual depiction is of such conduct;
  240.  
  241.  shall be punished as provided in subsection (b) of this section.
  242.  
  243.  (b)Any individual who violates this section shall be fined not more than
  244.  $100,000, or imprisoned not more than 10 years, or both, but, if such
  245.  individual has a prior conviction under this section, such individual shall
  246.  be fined not more than $200,000, or imprisoned not less than five years nor
  247.  more than 15 years, or both. Any organization which violates this section
  248.  shall be fined not more than $250,000.
  249.  
  250. (N.B. For the purposes of federal law, "minor" means "under age 18"--it does
  251. not refer to the age of consent in a particular state.)
  252.  
  253.  
  254. This statute illustrates some of the differences between the world of
  255. obscenity law and that of child-pornography law. For one thing, the statute
  256. does not address the issue of whether the material in question is "obscene."
  257. There's no issue of community standards or of "serious" artistic value.  For
  258. all practical purposes, the law of child pornography is wholly separate from
  259. the law of obscenity.
  260.  
  261. Here's the reason for the separation: "obscenity" laws are aimed at forbidden
  262. expression--they assume that some things are socially harmful by virtue of
  263. being expressed or depicted. Child-porn laws, in contrast, are not aimed at
  264. *expression* at all--instead, they're designed to promote the the protection
  265. of children by trying to destroy a market for materials the production of
  266. which requires the sexual use of children.
  267.  
  268. This rationale for the child-pornography laws has a number of legal
  269. consequences. First of all, under the federal statute, material that depicts
  270. child sex , but in which a child has not been used, does not qualify as child
  271. pornography. Such material would include all textual depictions of such
  272. activity, from Nabokov's novel LOLITA to the rankest, most offensive
  273. newsgroups on Usenet, all of which are protected by the First Amendment
  274. (assuming that, in addition to not being child pornography, they're also not
  275. obscene).
  276.  
  277. Secondly, the federal child-porn statute is limited to visual depictions (this
  278. is not true for all state statutes), but does not apply to *all* visual
  279. depictions: computer-generated or -altered material that *appears* to be child
  280. pornography, but which did not in fact involve the sexual use of a real child,
  281. would not be punishable under the federal statute cited above. This makes
  282. sense in light of the policy--if real children aren't being sexually abused,
  283. the conduct these statutes are trying to prevent has not occurred. Although
  284. prosecutors have had little trouble up to now in proving at trial that actual
  285. children have been used to create the child-porn GIF images at issue, we can
  286. anticipate that, as computer-graphics tools grow increasingly powerful, a
  287. defendant will someday argue that a particular image was created by computer
  288. rather than scanned from a child-porn photograph.
  289.  
  290. Third, since the laws are aimed at destroying the market for child
  291. pornography, and since the state has a very powerful interest in the safety of
  292. children, even the mere possession of child porn can be punished. (Compare:
  293. mere possession of obscene materials is Constitutionally protected.)
  294.  
  295. The fourth consequence of the child-protection policy that underlies
  296. child-porn statutes is that the federal law, as interpreted by most federal
  297. courts, does not require that the defendant be proved to have known that a
  298. "model" is a minor. In most jurisdictions, a defendant can be convicted for
  299. possession of child porn even if he can prove that he believed the model was
  300. an adult. If you can prove that you did not even know you possessed the image
  301. at all, you should be safe. If your knowledge falls somewhere in between --
  302. you knew you had the image, but did not know what it depicted, or that it was
  303. sexual in its content -- the law is less clear." (In other words, it's not yet
  304. clear whether it is a defense for a system administrator to claim he didn't
  305. even know he possessed the image, either because it had been uploaded by a
  306. user without his knowledge, or because it had appeared in "pass-through" mail
  307. or through a Usenet newsfeed.)
  308.  
  309. In sum, then, the child-porn statutes create additional problems for the
  310. system administrator who wants to avoid criminal liability and minimize the
  311. risk of a disruptive search and seizure.
  312.  
  313.  
  314.         What you can do
  315.  
  316. The first thing to do is not to overreact at this discussion of the risks. It
  317. would amount to a serious "chilling effect" on freedom of expression if a
  318. sysadmin--in order to eliminate the risk of prosecution for distribution of
  319. obscenity, or for possession or distribution of child-pornography--decided to
  320. eliminate all newsgroups with sexual content. The textual content of such
  321. newsgroups is constitutionally protected, as is much of the GIF content.
  322.  
  323. What's worse is that the tactic wouldn't eliminate the risks--it's always
  324. possible for someone to post illegal material to an innocuous newsgroup, like
  325. sci.astro or rec.arts.books, so that it would get to your system anyway.
  326. Similarly, an illegal image might be uuencoded and included in e-mail, which,
  327. if you're a system covered by the Electronic Communications Privacy Act,
  328. you're not allowed to read.
  329.  
  330. You should begin with the knowledge that nothing you can do as a sysadmin will
  331. eliminate altogether the risks of prosecution or of a disruptive search and
  332. seizure. But a few sensible measures can reduce the risks of a search or an
  333. arrest, and at the same time preserve the freedom of expression of your users
  334. and of those users who transmit material through your system.
  335.  
  336. * If you plan to carry graphic sexual material, look up your state's obscenity
  337. laws. A lawyer or librarian can help you find the relevant state statutes.
  338. Find out what, specifically, your state tries to prohibit. (If the state
  339. statute seems inconsistent with what I've written here, consider seeking legal
  340. advice--it may be that the statute predates the Supreme Court's decisions on
  341. obscenity and child pornography but has not yet been challenged.) You may also
  342. want to consult local adult bookstores--they often have clear, practical
  343. information about avoiding obscenity prosecutions.
  344.  
  345. * If you're running an online forum local to your system, and that forum has
  346. an upload/download area, prescreen graphic images before making them publicly
  347. available for downloads. While "calendar" and "foldout" images are
  348. Constitutionally protected, you may want to consider deleting "hardcore"
  349. images that might be found "obscene" in your community. You also want to
  350. delete anything that looks like child pornography.
  351.  
  352. * If you're running a Usenet node, and you are informed by users that an
  353. obscene or child-porn image has been posted to a newsgroup you carry, examine
  354. it and consider deleting it. If there's any ambiguity, err on the conservative
  355. side--remember, if you guess wrong about the age of the model, you can be
  356. convicted anyway.
  357.  
  358. * Take pains on your system to limit childrens' access to adult material, even
  359. if that material is not legally obscene (it may still be "indecent"). This
  360. includes textual material dealing with adult topics. Hint: asking for a
  361. photocopied driver's license in the mail is probably not an adequate
  362. safeguard--too easy for industrious minors to circumvent. A good set of rules
  363. to follow is spelled out in an FCC regulation applicable to phone-sex
  364. providers--47 CFR 64.201. The easiest FCC suggestions for a for-pay BBS,
  365. online service, or Internet access provider is to require payment by credit
  366. card; the easiest for a nonpay system is have an application process that
  367. reasonably ascertains whether an applicant for access is an adult, and to have
  368. a procedure whereby one can instantly cut off that access when informed that a
  369. user is in fact a minor.
  370.  
  371. * Don't delete discussions of sexual topics--they're Constitutionally
  372. protected. And even though the Supreme Court has not limited the definition of
  373. "obscenity" to visual depictions, as a practical matter, there is little legal
  374. risk in carrying textual narratives ("stories") on sexual themes.
  375.  
  376. * Don't inspect individuals' e-mail without their consent--unless they're
  377. employees of your company, their mail is probably protected by the Electronic
  378. Communications Privacy Act.
  379.  
  380. * If you're a university site, or if you're simply interested in the law of
  381. freedom of speech, consult the Computers and Academic Freedom (CAF) archive,
  382. which is part of the EFF archive at ftp.eff.org. If you have gopher, the
  383. archive is browsable with the command "gopher -p academic/law gopher.eff.org";
  384. if you are limited to e-mail access, send e-mail to archive-server@eff.org,
  385. and include the line
  386.  
  387.         send acad-freedom/law <filename>
  388.  
  389. where <filename> is a list of the files that you want (start with README, a
  390. detailed description of the items in the directory). The CAF archive has a
  391. number of instructional materials that deal with obscenity and
  392. child-pornography law.
  393.  
  394.  
  395. -----
  396.  
  397.  
  398. These measures won't guarantee that you'll never have legal troubles--nothing
  399. can guarantee that. (And if you have particular legal worries, you should
  400. consult a lawyer in your jurisdiction.) But they can reduce the risks you face
  401. as a system administrator and as a carrier and distributor of information. At
  402. the same time, they'll minimize the extent to which you interfere with your
  403. users' freedom to communicate--which is, after all, one of the chief reasons
  404. they're online in the first place.
  405.  
  406.  
  407. Mike Godwin (mnemonic@eff.org) is online counsel for the Electronic Frontier
  408. Foundation, where he advises users of electronic networks about their legal
  409. rights and responsibilities, and instructs criminal lawyers, law-enforcement
  410. personnel, and others about computer civil-liberties issues.
  411.  
  412. For info on EFF mailing lists, newsgroups & archives, mail eff@eff.org. To
  413. browse EFF's archives, use FTP, gopher, or WAIS to connect to ftp.eff.org,
  414. gopher.eff.org, or wais.eff.org respectively.  Look in /pub/Eff. To get basic
  415. EFF info send a message to info@eff.org. Send detailed queries to ask@eff.org.
  416. For membership information, mail membership@eff.org.
  417.  
  418. Thanks for your support. I hope to be back again.
  419.  
  420.