home *** CD-ROM | disk | FTP | other *** search
/ World Wide Catalog 1995 Summer / World_Wide_Catalog_InfoMagic_Summer_1995.iso / pages / wwweff_b.org / pub / alerts / s314_hrt.ana < prev    next >
Text File  |  1995-06-11  |  17KB  |  323 lines

  1. [NOTE: This analysis applies no longer to S.314, which was heavily 
  2. amended, then folded into the Senate telecom reform bill, S652, on Mar. 23, 
  3. 1995. It does however apply to the House version of the bill, H.R.1004, 
  4. which  has not been amended and preserves the original text. - 
  5. mech@eff.org 3/28/95]
  6.  
  7.  
  8. ELECTRONIC FRONTIER FOUNDATION POLICY PAPER: THE EXON BILL, S. 314, 1995
  9. ------------------------------------------------------------------------
  10.  
  11. This is the first in a series of documents by EFF Policy Fellows.  While
  12. they do not necessarily reflect the position of the EFF Board of
  13. Directors, EFF feels these Policy Papers present interesting viewpoints,
  14. worthy of consideration and study.
  15.  
  16.  
  17. Electronic Frontier Foundation
  18. Policy Paper: Exon Amendment (S. 314)
  19. February 28, 1995
  20.  
  21. Contact:    David G. Post (dpost@eff.org)
  22.                 EFF Policy Fellow
  23.  
  24. Summary of Proposed Changes
  25.  
  26. The changes proposed in Section 2 of the Exon Amendment (the 
  27. "Amendment") fall into 2 categories. 
  28.  
  29. 1. A number of the proposed changes would expand existing criminal 
  30. liability by making certain acts that are currently illegal if done 
  31. using the telephone illegal if done using a "telecommunications 
  32. device."
  33.  
  34.     A.  Current law makes it illegal to "make" an "obscene, lewd, 
  35. lascivious, filthy, or indecent" comment by means of a telephone. 
  36. The Amendment would extend criminal liability to anyone 
  37. performing such an act by means of a "telecommunications device." 
  38. Sec. 2(a)(1)(A). 
  39.  
  40.     B.  Current law makes it illegal to "make" a telephone call 
  41. "without disclosing [your] identity" and "with intent to annoy, abuse, 
  42. threaten, or harass any person at the called number." The Amendment 
  43. would extend liability to anyone who performs a similar act 
  44. "utiliz[ing] a telecommunications device." Sec. 2(a)(1)(C). 
  45.  
  46.     C.  Current law makes it illegal to "make repeated telephone 
  47. calls" to "harass any person at the called number." The Amendment 
  48. would extend criminal liability to anyone who "repeatedly initiates 
  49. communication with a telecommunications device" for that purpose. 
  50. Sec. 2(a)(1)(D).
  51.  
  52.     D.  Current law makes it illegal to "knowingly permit a 
  53. telephone facility under [your] control" to be used for any of the 
  54. above illegal purposes. The Amendment would extend liability to 
  55. anyone who knowingly permits a "telecommunications facility" to be 
  56. used for such purposes. Sec. 2(a)(2). 
  57.  
  58.  
  59.     E.  Current law makes it illegal to "make an indecent 
  60. communication for commercial purposes . . . available to any person 
  61. under 18 years of age" by means of a telephone. The Amendment 
  62. would extend criminal liability to those making such 
  63. communications available "by means of a telecommunications 
  64. device." Sec. 2(a)(4). 
  65.  
  66. 2. A number of the proposed changes would expand existing criminal 
  67. liability by making a new class of persons liable for the illegal acts 
  68. of others.
  69.  
  70.     A.  Current law makes it illegal to "make" an "obscene, lewd, 
  71. lascivious, filthy, or indecent" comment by means of a telephone. 
  72. The Amendment would extend criminal liability to anyone who 
  73. "transmits or otherwise makes available" such a comment. Sec. 
  74. 2(a)(1)(B). 
  75.  
  76.     B.  Current law makes it illegal to "make an indecent 
  77. communication for commercial purposes . . . available to any person 
  78. under 18 years of age" by means of a telephone. The Amendment 
  79. would extend criminal liability to anyone who "knowingly transmits 
  80. or knowingly makes available" such communications. Sec. 2(a)(4).
  81.  
  82. Objections to the Proposed Changes
  83.  
  84.     A.  The extension of liability to acts performed via
  85. "other telecommunications devices" It may seem logical to propose 
  86. that a certain act that is now illegal if accomplished via a telephone 
  87. should be illegal if accomplished via electronic mail or other 
  88. telecommunications devices. It is a logic that breaks down on closer 
  89. examination.
  90.  
  91.         1.  Existing law embodies the principle that persons 
  92. should not be permitted to exploit the capability of this medium to 
  93. impose harmful or harassing communications on unwilling listeners. 
  94. By the same token, private, consensual communication is, simply, 
  95. none of the government's business (even if that communication 
  96. might otherwise be deemed "obscene, lewd, lascivious," etc.). The 
  97. telephone is both a point-to-point medium and an "intrusive" 
  98. medium. Calls are directed to individual recipients who are 
  99. generally unable (notwithstanding a measure of protection available 
  100. through Caller ID or similar technology), to avoid calls placed 
  101. directly to their telephone number, even if they are unwilling to 
  102. participate in the communication.  
  103.  
  104.         Existing law thus criminalizes only those 
  105. communications that are non-consensual -- because only the sender 
  106. and the recipient are participants in the call (and no one will be in a 
  107. position to complain if the two participants consensually engage in 
  108. the communication). The ban in existing law on obscene telephone 
  109. calls, or repeated anonymous and "harassing" telephone calls, 
  110. protects the unwilling recipient from being subjected to 
  111. communication that he/she finds offensive and cannot avoid. 
  112.  
  113.         2.  Any extension to the world of electronic 
  114. communication should sweep no more broadly than to cover 
  115. personally targeted, non-consensual, point-to-point electronic 
  116. communication, because only in that context does the concept of the 
  117. "unwilling listener" make sense.
  118.  
  119.         "Offensive" communications that appear in electronic 
  120. discussion groups, chat "rooms," Usenet groups, listservers, and the 
  121. like are not akin to personally directed telephone calls intruding
  122. upon an unwilling listener. These contexts are more closely 
  123. analogous to voluntarily-entered communities, where the unwilling 
  124. listener can always exit -- avoiding exposure to the unwanted 
  125. communication -- if the communications are offensive or otherwise 
  126. annoying.
  127.  
  128.     B  The extension of liability to persons who "transmit or 
  129. otherwise make available" specific kinds of communications 
  130.  
  131.         1.  The extension of liability to persons who "transmit
  132. or otherwise make available" specific kinds of communications will 
  133. have a substantial and detrimental effect on robust communication 
  134. on individual networks and the Internet. 
  135.  
  136.         The potential breadth of this aspect of the Amendment is 
  137. breath-taking, given the decentralized architecture of the Internet.
  138. Any given message travelling over the Internet may be "transmitted 
  139. or otherwise made available" by dozens of intermediate networks; 
  140. the Amendment, on its face, would appear to make these 
  141. intermediate network administrators criminally liable for the 
  142. content of messages "transmitted" by their systems. Additionally, 
  143. any of the possibly thousands of network administrators who might 
  144. make an individual Usenet group available to network users would, it 
  145. appears, be liable should e.g., any "indecent" communication appear 
  146. in the communications within that group.
  147.  
  148.         The risks for network administrators under this regime 
  149. would be substantial even if it were possible to pre-screen all 
  150. communications prior to "making them available," and even if there 
  151. were clear definitional boundaries such that one could easily
  152. determine ex ante what was, or was not, an "obscene, lewd, 
  153. lascivious, filthy, or indecent" communication. Given the virtual 
  154. impossibility of the former and the absence of the latter, the risks
  155. are further exacerbated.
  156.  
  157.         It is inevitable that network administrators and others 
  158. in control of telecommunications facilities will take steps to 
  159. minimize these enormous risks, steps certain to include a refusal to 
  160. transmit communications from discussion groups or other Internet 
  161. sites that may contain material that may be deemed to fall into one 
  162. or more of the prohibited categories.
  163.  
  164.         This will necessarily chill the robust discussion that has 
  165. characterized the online environment up to this point by making 
  166. unavailable an enormous range of communication outside of the 
  167. prohibited categories -- communication squarely within the 
  168. protection of the First Amendment.
  169.  
  170.         2.  Imposition of liability only on those who "knowingly" 
  171. transmit or make available prohibited communications will not cure 
  172. this deficiency.
  173.  
  174.         The term "knowingly" does not consistently refer to a 
  175. single, well-defined scienter (mental state) standard. It is unclear,
  176. and will continue to be unclear until courts give a definitive 
  177. construction to this term in this specific context, whether, for 
  178. example, (a) knowledge that a particular newsgroup is being made 
  179. available to network users, or (b) knowledge that the newsgroup is 
  180. being made available and is unmoderated, or (c) knowledge that the 
  181. newsgroup has carried prohibited communications (frequently?) in 
  182. the past, or (d) knowledge that a specific communication was 
  183. carried in the newsgroup, or (e) knowledge that the content of the 
  184. specific communication fell within the category of prohibited 
  185. communications, will be sufficient to impose liability on a network
  186. administrator in the event that an "obscene" communication appears 
  187. among the many non-prohibited communications in the group.
  188. Perhaps more significantly, a scienter standard for intermediaries 
  189. will, perversely, discourage precisely the kind of monitoring of 
  190. communication that offers users protection against being subjected 
  191. to unwanted communications. Network administrators will have the 
  192. incentive to avoid all monitoring or pre-screening of messages in 
  193. order to avoid being deemed to have "knowledge" of a specific 
  194. prohibited communication. Providers of transmission services 
  195. should instead be given maximum flexibility to set local standards 
  196. for the classes of messages they are willing to carry, to perform the 
  197. monitoring they deem appropriate to enforce those standards, and 
  198. incentives should be provided to encourage them to communicate the 
  199. nature and scope of those actions so as to enable users to make 
  200. informed decisions about the kind of communication to which they 
  201. wish to be exposed. 
  202.  
  203. A Counter-Proposal
  204.  
  205. For all of its obvious and serious flaws, the Exon Amendment 
  206. provides those interested in the free flow of information in 
  207. electronic communities with the opportunity to re-think the 
  208. question of content regulation in those communities and to design 
  209. standards that will provide protection against harm to the unwilling 
  210. listener without sacrificing the vigorous debate that has come to 
  211. characterize those communities. We offer the following principles 
  212. that, if embodied in legislation, would better balance these 
  213. competing needs.
  214.  
  215. 1.    The Internet -- and, increasingly, individual constituent 
  216. networks -- are global in scope, presenting difficult jurisdictional 
  217. questions concerning the proper law to apply in particular instances. 
  218. Although federal legislation cannot alone solve these conflict-of-
  219. laws questions, a properly drafted federal statute that expressly 
  220. pre-empts conflicting state legislation could be an important first 
  221. step towards relieving network administrators and others 
  222. responsible for the Internet infrastructure of the burden of 
  223. complying with overlapping and mutually inconsistent State law. 
  224.  
  225. 2.    The principle of individual responsibility for harmful acts 
  226. initiated by the individual should be a centerpiece of any legislative 
  227. initiative in this area. Legal remedies for any harm resulting from 
  228. electronic communications -- for copyright infringement, 
  229. harassment, defamation, or the like -- should focus upon the person 
  230. or persons responsible for initiating the communication. In order to 
  231. preserve the free flow of information within and across electronic 
  232. communities, persons who do no more than transmit or forward 
  233. messages should be immune from liability. Only if such persons take 
  234. affirmative steps to solicit, sponsor, promote, or adopt the 
  235. communication in question as their own, or if, by their actions, they 
  236. make it more difficult for the recipient to identify the originator of 
  237. the offending communication, should liability attach to their 
  238. actions. 
  239.  
  240. The following language, broadly adopted from the draft of an 
  241. Electronic Communications Forwarding Act proposed by EFF (and 
  242. others) several years ago, would be a useful starting point for
  243. legislative action:
  244.  
  245.     Any person who, using an instrumentality of 
  246.     interstate commerce, forwards or transfers such 
  247.     electronic communication between the originating 
  248.     party and authorized recipients, not be subject to 
  249.     criminal or civil penalty nor liable to any other 
  250.     person for damages or equitable relief of any kind, 
  251.     provided that such person does not solicit, sponsor, 
  252.     promote, or adopt such communication as its own, 
  253.     and provided further that such person does not 
  254.     alter the identifiability of the sender of such 
  255.     communication.
  256.  
  257. 3.    The free flow of information in electronic communities can 
  258. and should accommodate adequate protection for the unwilling 
  259. listener against intrusive, personally targeted, non-consensual, 
  260. point-to-point electronic communication, and we support the 
  261. development of uniform standards in this area. Such standards 
  262. should be based upon the principle that message recipients can avoid 
  263. exposure to any such offending messages, but only if the messages 
  264. are properly labelled and their originator(s) properly identified; 
  265. hence liability should attach only where the sender takes 
  266. affirmative steps to shield the recipient from information about the 
  267. identity of the sender, or to mislabel or misrepresent message 
  268. content, in such a way as to make it unreasonably difficult for the 
  269. recipient to avoid communication that he or she deems offensive.
  270.  
  271.  
  272. 4.    The means by which definitional questions regarding the 
  273. boundaries of communications deemed "obscene" or otherwise 
  274. unlawful must respect the right of communities to self- 
  275. determination and self-governance to the maximum extent possible. 
  276. Outside of the electronic context, reference to prevailing 
  277. "community standards" in making these determinations attempts to 
  278. balance the right of residents in specific communities to exercise 
  279. control over the material that enters their communities, against the
  280. right of creators and distributors of diverse material to operate 
  281. freely in those communities where that material is not offensive to
  282. prevailing standards, so as to encourage diversity of expression and 
  283. to prevent imposition of a uniform, "lowest common denominator" 
  284. standard across different communities. 
  285.  
  286.     The world of electronic communication uniquely offers 
  287. individuals the ability to associate into virtual communities with 
  288. others who share their sensibilities regarding material that other 
  289. communities might deem indecent, obscene, lascivious, or lewd. The 
  290. "boundaries" between these online communities are passwords and 
  291. warning screens, that enable the nature of the communications 
  292. permitted (and prohibited) in the community in question to be 
  293. clearly communicated to all those who wish to join the community 
  294. in question. Accordingly, we believe that the best source of a 
  295. definition regarding what constitutes "obscenity", for purposes of 
  296. determining when the law should intervene to prohibit electronic 
  297. distribution of materials, is the standard set by the users who, 
  298. collectively, set the rules applicable to any particular online 
  299. community. Where the nature of the materials is clearly disclosed on 
  300. warning screens encountered as the users access the BBS system, 
  301. those who sign on -- who voluntarily join the community - - have 
  302. already determined that the materials in question do not violate 
  303. their own sensibilities. If the operators of a BBS system were to 
  304. post materials that violated the collective standards of that
  305. user community, the community in question could quickly correct 
  306. things by voting with their modems to go elsewhere. 
  307.  
  308. 5.    One problem, ostensibly addressed by the Amendment, remains: 
  309. how to insure that adult-oriented material does not find its way 
  310. into the hands of minors? This problem can arise in two broad 
  311. contexts in the online environment: membership-restricted forums 
  312. (e.g., adults-only BBSs) and open, unrestricted forums (e.g., WWW 
  313. sites). Regarding the former, EFF supports imposition of a duty on 
  314. system administrators to take reasonable steps to collect 
  315. information concerning the age of persons attempting to access the 
  316. material, analogous to the duties of operators of "900" telephone 
  317. services to obtain similar information regarding callers. Regarding 
  318. the latter, we believe that parental control over minors' access can 
  319. best be achieved through a combination of standardized header codes 
  320. and "warning labels" in conjunction with software-based filtering 
  321. devices, and we will continue to support efforts by the online 
  322. community itself to develop and implement such standards. 
  323.