home *** CD-ROM | disk | FTP | other *** search
/ The Hacker's Encyclopedia 1998 / hackers_encyclopedia.iso / zines / eff / eff1003.txt < prev    next >
Encoding:
Text File  |  2003-06-11  |  27.8 KB  |  633 lines

  1.  
  2. =========================================================================
  3.     ________________          _______________        _______________
  4.    /_______________/\        /_______________\      /\______________\
  5.    \\\\\\\\\\\\\\\\\/        |||||||||||||||||     / ////////////////
  6.     \\\\\________/\          |||||________\       / /////______\
  7.      \\\\\\\\\\\\\/____      ||||||||||||||      / /////////////
  8.       \\\\\___________/\     |||||              / ////
  9.        \\\\\\\\\\\\\\\\/     |||||              \////   e  c  t  o  r
  10.  
  11. =========================================================================
  12. EFFector        Vol. 10, No. 03        Feb. 28, 1997       editor@eff.org
  13. A Publication of the Electronic Frontier Foundation        ISSN 1062-9424
  14.  
  15. IN THIS ISSUE:
  16.  
  17. EFF Online Filtration/Ratings/Labelling Public Interest Principles
  18. Quote of the Day
  19. What YOU Can Do
  20. Administrivia
  21.  
  22.  * See http://www.eff.org/hot.html for more information 
  23.    on current EFF activities and online activism alerts! *
  24.  
  25. ----------------------------------------------------------------------
  26.  
  27.  
  28. Subject: EFF Online Filtration/Ratings/Labelling Public Interest Principles 
  29. ---------------------------------------------------------------------------
  30.  
  31.                     ELECTRONIC FRONTIER FOUNDATION
  32.  
  33.                       PUBLIC INTEREST PRINCIPLES 
  34.           FOR ONLINE FILTRATION, RATINGS AND LABELLING SYSTEMS
  35.  
  36.  
  37. Public Discussion Draft            Version 1.0b            Feb. 28, 1997
  38.  
  39. Please submit comments or questions to mech@eff.org, with "FILTER DRAFT"
  40. in the subject line, by March 31, 1997 if possible. This draft should not
  41. be redistributed beyond March 31, 1997. The latest version can be found at
  42.  http://www.eff.org/pub/Net_info/Tools/Ratings_filters/eff_filter.principles
  43.  
  44. This document is a DRAFT, and should not be quoted or paraphrased as a
  45. final statement of position, policy or opinion.
  46.  
  47. If your organization wishes to endorse this document please send a message
  48. to that effect to mech@eff.org or fax: +1 415 436 9333.
  49.  
  50.  
  51. INTRODUCTION
  52. ____________
  53.  
  54. As the Internet and other computer networking technologies increasingly
  55. become intertwined in the daily lives of a large number of people,
  56. concerns are frequently raised about locating relevant online material
  57. in a sea of data, preventing the exposure of minors to sexually explicit
  58. expression, ensuring that paid online work time is spent productively,
  59. and avoiding racist, sexist or otherwise offensive electronic messages.
  60.  
  61. A market in competing and complementary filtration solutions has arisen to
  62. address these concerns, empowering the individual to manage the "firehose"
  63. of information available in cyberspace - as well as manage employee
  64. online time on the job, or children's access to controversial information.
  65. These tools range from email sorting utilities, through specially filtered
  66. sites for children (that provide links to only pre-reviewed material), to
  67. applications and services that track employee Web browsing. Soon, search
  68. engines and "intelligent" agents may also incorporate aspects of
  69. filtration or content labelling.
  70.  
  71. Even as these new technologies empower users, parents, and employers,
  72. they pose unique conundrums, involving participant privacy, freedom of
  73. expression, and intellectual property among other issues. Many questions
  74. are raised: "Who's watching and recording what?"  "What happens to my
  75. personal information when I send it to a filtering site?"  "Who decides
  76. whether a site is to be blocked by this filtering software I use?"
  77.  
  78. Although many benefits accrue to individual control over Internet content
  79. at the receiving end, the technolgies that make this possible also pose
  80. several risks for users, on all sides.
  81.  
  82. The principle areas of concern are:
  83.  
  84. * protection of end-user privacy;
  85.  
  86. * ability of parents to understand, and to select in detail, what is
  87.   filtered;
  88.  
  89. * protection of intellectual property rights;
  90.  
  91. * maintenance of the integrity of information;
  92.  
  93. * viability of positive as well as negative filtration tools;
  94.  
  95. * prevention of a system of self-censorship;
  96.  
  97. * ability of content providers to challenge inappropriate blockage or
  98. inaccurate ratings/labels.
  99.  
  100. These concerns may be addressed by applying core online principles of
  101. trust, and more specific guidelines for filtrations/ratings/labelling
  102. policies.
  103.  
  104.  
  105. Core Online Trust Principles
  106. ____________________________
  107.  
  108. EFF has developed a set of core principles for the implementation and
  109. operation of rights-affecting networking technologies, necessary to
  110. establish a base level of consumer and organizational trust in privacy,
  111. security, and free flow of information online:
  112.  
  113. * Informed Consent Is Necessary
  114.  
  115.   Consumers have the right to be informed about the privacy, security,
  116.   intellectual property and intellectual freedom consequences of an online
  117.   transaction or activity, BEFORE entering into one.
  118.  
  119. * There Is No Privacy Without Security
  120.  
  121.   System security is inexorably linked with privacy - and protection of
  122.   intellectual property rights - in an online interaction.
  123.  
  124. * Standards Vary According to Context
  125.  
  126.   No single narrow standard or policy, regarding free speech, privacy,
  127.   or security, is adequate for all situations, or for all participants.
  128.  
  129.  
  130. Guidelines for Implementation of Internet Filters and Ratings/Labelling
  131. _______________________________________________________________________
  132.  
  133. 1)  Users' Information Privacy - Disclosure and Op-Out from Personal
  134.     Information Use and Re-Use
  135.  
  136. * The filtration provider must inform the user of what personally
  137.   identifiable information on the user is being  kept and of the use of
  138.   this information (including use by the filtration provider, and/or by
  139.   any intermediary such as educational institution or employer), whether
  140.   or not the information will be made available and in what form to other
  141.   parties, to whom, and for what purpose.
  142.  
  143. * Users must have the right to opt out of any outside third party use of
  144.   personally identifiable information, and to restrict use and
  145.   redistribution of that information by such outside parties.
  146.  
  147. * Intermediaries must have the right to opt the intermediary and the user
  148.   out of outside party use, and out of marketing use by the service
  149.   provider.
  150.  
  151.  
  152. 2)  Children's Information Privacy - Protection of Identity and
  153.     Confidentiality of Minor Status
  154.  
  155. * The product or service should never reveal that the browsing/posting
  156.   user is a minor, nor reveal any personally identifiable information
  157.   publicly or to outside parties, without the intermediary's knowledge and
  158.   consent.  A child's browsing or other preferences or habits should not
  159.   be made available to outside parties in a personally identifiable
  160.   manner at all
  161.  
  162. * Private information such as address or phone number should
  163.   not be released to outside parties without the written and informed
  164.   consent of the parent.
  165.  
  166. Notes: Already, the US Congress and Federal Trade Commission,
  167. and other governmental bodies around the world are examining
  168. possible regulatory measures to prevent marketing with personal
  169. information about children, and to restrict the collection and
  170. redistribution of such information. As with the "L-18" user
  171. identification system proposed by the Dept. of Justice in the
  172. Communications Decency Act trial - a proposal rejected by the
  173. court - the "broadcasting" of an online child's age or even their
  174. status as a minor may make it easier for abusive individuals to
  175. target children.
  176.  
  177.  
  178. 3)  Availability of Default Content & Filtration Criteria and Operational
  179.     Details
  180.  
  181. * An explanation of the filtering or rating criteria, and the values or 
  182.   principles underling them, must be accessible easily and without fee to
  183.   customers and content providers, in enough detail to make meaningful
  184.   choices.
  185.  
  186. * Customers must be informed especially as to whether the filtration
  187.   may block political/social discussion, news reportage, literature,
  188.   art, or scientific/reference works, as well as presumed targets (e.g. 
  189.   explicit images, private "chat" sessions, email, or advertising.)
  190.   It must be clear whether blocking is based on topic, keywords, and/or
  191.   other distinctions, and how broadly it may reach.
  192.  
  193. * Customers must also be informed of the limitations of the
  194.   software/service - what it does NOT filter, what it cannot prevent - and
  195.   generally how the filtering works (respective of trade secret &
  196.   proprietary information, of course.)
  197.  
  198.  
  199. 4)  Notice of Active Filtration and Tracking
  200.  
  201. * User tracking, such as "click-stream" information or "audit trails",
  202.   should be an option (if offered at all), not a default. 
  203.  
  204. * If any tracking is enabled and information on the user's browsing or
  205.   other Net use (including anything from a list of sites to full-text log,
  206.   on either the customer's own system, or held by the filtration service
  207.   provider) is available for review by a parent, an intermediary or an
  208.   outside party the user should be notified during use or sign-on that
  209.   their usage is being monitored and may be reviewed, and by whom. This
  210.   notice should come before any connection attempt or other online
  211.   activity is logged or processed, and may be shown more frequently to
  212.   give better notice.
  213.  
  214. * If the service or software does not provide such notice to the user,
  215.   then it also must not provide an on-site or off-site audit trail or other
  216.   form of log available to a parent or employer (nor to outside parties
  217.   without a court order.)  Audit trail or other tracking information must
  218.   never be available to the public without explicit written permission of
  219.   the user.
  220.  
  221. * If a site, session or document is blocked, some kind of notice should
  222.   appear explaining why, regardless of whether or not the session is being
  223.   logged/tracked.
  224.  
  225. Notes: As filters become more common both in the home and the workplace,
  226. several concerns arise about "secret monitoring".  Users of any age
  227. deserve the same notification of loss of privacy online as they do when
  228. their phone conversations are recorded. Children's and teens' physical
  229. safety, even their lives, may be at stake in some cases.
  230.  
  231. Examples: Proper notice might consist of pop-up screens that tell the
  232. user at the beginning of a session that their Net browsing is being
  233. recorded, and that their parents or employers will have access to a list
  234. of what sites or newsgroups the user has been reading. This reminder
  235. might reappear every half-hour or so. On the other hand, a simple email
  236. filter that sorts incoming messages into content-relevant mailboxes,
  237. discarding any emails with profanities in the process, might give no
  238. notice (other than logging what it had done).  Level and detail of notice
  239. is dependent upon potential negative privacy impact on the user.
  240.  
  241.  
  242. 5)  Customer Choice and Control
  243.  
  244. * The customer should be able to configure what is being filtered, such
  245.   as by a user-friendly means of adjusting defaults for filtration/ratings
  246.   categories, by selectively adding or deleting specific new sites or
  247.   keywords, by turning on or off topics to filter for, or by swapping
  248.   entire sets of filtration criteria, as examples.
  249.  
  250. * Customers should not be placed in the position of purchasing someone
  251.   else's morality or preferences for lack of ability to customize or make 
  252.   meaningful choices. Instead, they need tools that help them filter
  253.   out material they do not find appropriate.
  254.  
  255. Notes: Systems based on the Platform for Internet Content Selection
  256. (PICS) are already compliant with this principle, as PICS allows for
  257. multiple ratings systems from which the user may select, provided that 
  258. more than one label bureau is available.
  259.  
  260.  
  261. 6)  Appeal Process, Public Access, and Integrity of Personal Information
  262.  
  263. * Creators, moderators and/or owners of sites or other resources rated,
  264.   filtered or otherwise negatively impacted should have a means of appeal
  265.   within the organization doing the filtration, labelling or rating, to
  266.   review the appropriateness of the decision to block/filter that site,
  267.   to review the accuracy or breadth of an human-assigned label or
  268.   rating, and/or to review the actions of an automated filter or other
  269.   function that blocks that site or document.  The filtering/rating party
  270.   should treat such concerns seriously and help to resolve conflicts when
  271.   possible.
  272.  
  273. * Additionally, providers have a responsibility to verify information.
  274.   Others must have a right to correct any wrong information about them,
  275.   and to have suggested corrections of general fact considered seriously.
  276.   One of the most serious problems inherent in the computerization of
  277.   records and other information is the wild propagation of errors once
  278.   they are introduced. Providers should have a well-thought-out published
  279.   policy for dealing with such errors rapidly and fairly, with benefit of
  280.   the doubt adhering to the person about whom the information may be
  281.   mistaken.
  282.  
  283. * The full results of such reviews of claims of errors or of mislabelling
  284.   or improper filtration should be made available to the filtered-out
  285.   party and to the public after the complaint is handled, and not covered
  286.   by non-disclosure or other restriction from consumer examination.
  287.   When possible, parties should seek arbitration, rather than recourse to
  288.   legal machinery.
  289.  
  290.  
  291. 7)  Intellectual Property and Integrity of Content
  292.  
  293. * Filtering, labelling and rating should not modify source material.
  294.   Filtered material should simply be blocked, or otherwise dealt with per
  295.   customer preference, intact, with any ratings or labels appearing in
  296.   frames, menu bars, headers, pop-up windows, or distinct and clearly
  297.   attributed lead-ins to the presented content.
  298.  
  299. Notes: "Four-letter words" should not be replaced by "****", and
  300. proxy-like watchdog servers should not insert rating icons into the
  301. HTML code or other content of rated materials. Such practices abuse the
  302. material owner's copyright (in particular, the right to control the
  303. production of derivative works), and opens the filtration provider to
  304. liabilty. Such alterations may also lead to incorrect reportage or
  305. citation, false attributions of quoted material, misinterpretation, and
  306. other problems.
  307.  
  308.  
  309. 8)  Open Expression Without Self-Censorship
  310.  
  311. * Content control systems must not place a heavy burden on content
  312.   authors. In particular, a self-rating/labelling system must be
  313.   sufficiently simple to implement and use that it does not interfere
  314.   with content production,  or result in self-censorship to avoid the toil
  315.   of labelling content. Under no circumstances should any such system be
  316.   imposed by governments, or by private-sector parties such as
  317.   Internet service providers, under government pressure.
  318.  
  319. * Self-labelling schemes logically apply only to comparatively static
  320.   documents such as web pages, not to content of a conversational nature,
  321.   such as live "chat" or postings to newsgroups and other forums of a
  322.   fluid nature.  In such cases, the forum as a whole, not each post or
  323.   momentary expression in it, could be rated, labelled or filtered.
  324.  
  325. * Filtration and labeling schemes must be designed carefully, with an
  326.   eye to avoiding monopolization that can lead to chilling of free
  327.   expression or barriers to access for all but the influential or those
  328.   willing to comply with a particular labelling scheme.
  329.  
  330.  
  331. 9)  Positive as Well as Negative Filtration
  332.  
  333. * When feasible, content control services should make efforts to not only
  334.   block material offensive to their customers, but also provide active
  335.   pointers to material these users will appreciate.
  336.  
  337. Notes: Though concerns about inappropriate material have sped up the
  338. development of filtration and labelling technology, the initial seed, and
  339. logical culmination, of such efforts is the search for a solution a much
  340. longer standing problem: the difficulty of finding relevant information
  341. in a staggeringly complex and vast flux of data.  Working on this larger
  342. problem simultaneously moves the Internet community away from hype and
  343. fearmongering, helps the evolution of the Internet into a user-friendly
  344. knowledge tool for everyone, and does something active and constructive
  345. for everyone, as well something passive for those for whom the
  346. availability of inappropriate content remains a focus.
  347.  
  348.  
  349. 10) Contextual, Factual, Cultural Sensitivity
  350.  
  351. * Content control systems must consider among the rating/labelling/blocking
  352.   criteria, whenver possible, the context in which the material is found,
  353.   and whether it is presented as fact or fiction, textual or graphical,
  354.   advocacy or reportage, etc.
  355.  
  356. * Content control systems must take into account whenever possible the
  357.   literary, artistic, journalistic, educational or other value of the
  358.   material to be labelled, rated or blocked.
  359.  
  360. * Local standards should be taken into account, as mores and preferences
  361.   vary from culture to culture. A system implementing the values of a
  362.   particular subset of one culture may be rationally inapplicable on a
  363.   global scale, or even on a local scale elsewhere.
  364.  
  365. Notes: "Hell" in the context of a religious discussion is not very similar
  366. to the more offensive use of such a term as an expletive.  Similarly, if
  367. the word "gay" or images of violent conflict appear in a news report, this
  368. should probably not be filtered out by a system that blocks access to
  369. "alternative lifestyle" or "violent" material, unless the customer
  370. specifically requests that such material also be blocked or the
  371. filtering/rating system is intended to be and is disclosed as very
  372. restrictive. Most users, including parents, draw a sharp distinction
  373. between material that advocates or visually displays behavior they find
  374. distasteful, and journalism or political discussion about topics in
  375. general.  There is a severe danger of misuse of parental empowerment
  376. technology for entirely opposite ends, facilitated by censorship of
  377. political, journalistic and other material under the rhetoric of "safety".
  378. Already several public libraries are having filtration softare imposed
  379. upon them by local goverment with political agendas to restrict access to
  380. information. The constitutionality of these actions is highly
  381. questionable.
  382.  
  383. 11) Individual and Academic Self-Determination
  384.  
  385. * Government and semi-governmental entities must refrain from imposing a
  386.   requirement for self-ratings, assigning private-sector sites particular
  387.   labels, or mandating the use of filtration software.  Any attempt to do
  388.   so is sheer censorship, consisting of forced silence, coerced speech,
  389.   denial of access, or restraint of publication.
  390.  
  391. * In particular, censorship of online access in libraries and other public
  392.   places must be avoided, and filtration must not be the default for
  393.   public Internet terminals any more than hiding of "mature" books may be
  394.   a default in public libraries.  Public libraries must not reduce
  395.   adult patrons to reading online only what has passed filtration as
  396.   appropriate for children.
  397.  
  398. * Student's freedom of speech and press, and the rights of libraries and
  399.   library patrons, as forumlated in statute, case law, constitutions and
  400.   UN treaty, apply fully in the context of online media, not simply paper
  401.   and vocal speech.
  402.  
  403. * The decision to use filtration of online material in the classroom or 
  404.   children's reading room - and what to filter - must rest with the
  405.   teacher or librarian, with no more control by administrators than that
  406.   excercized over what paper handouts teachers may use in class or what
  407.   books may be checked out by children. 
  408.  
  409. * That libraries can in some cases legally excerise content-based
  410.   discretion in what materials they make available does not in and of
  411.   itself constitute a reason to do so with online material, nor does it
  412.   imply a legislative or executive governmental prerogative to make
  413.   or influence those decisions. Likewise, that libraries may protect
  414.   valuable or fragile paper works by allowing their use only on special
  415.   request, does not indicate that the reverse, "protecting" library
  416.   patrons from materials that may be offensive to some, is appropriate.
  417.   Libraries must not block online material, then require adults to ask for
  418.   a key, password or special permission to access it.
  419.   
  420. * The decisions of a teacher or librarian in this area, as in others,
  421.   should be based on their own criteria, with input from the community
  422.   where appropriate, and not controlled by the political priorities of
  423.   administrators, or of executive or legislative government. The role of
  424.   teachers and librarians is to provide access to information, knowledge
  425.   and critical thinking, not to act as online content police.
  426.  
  427. * Similarly, network service providers must not require users to rate or
  428.   label their own material or submit to the editorial control of others.
  429.   Government must not coerce or pressure service providers into providing
  430.   content control technology, or require users to participate in
  431.   content control systems.  
  432.  
  433. * Removing from distribution users' materials or otherwise taking action
  434.   against users based on disagreement with how they self-rate is
  435.   indefensible, and logically incompatible with the notion of a
  436.   self-rating system.
  437.  
  438.  
  439. 12) Prevention of Centralization and National Filters
  440.  
  441. * Content filtration defaults must not be built into publicly available
  442.   hardware or operating systems, since market dominance by a particular
  443.   manufacturer, or adoption by governments, could virtually destroy
  444.   free flow of information on the global Internet.
  445.  
  446. * Filtration service providers must take care not to put into place or
  447.   enable the creation of centralized storehouses of personally
  448.   identifiable user preferences or other transactional and private
  449.   information.
  450.  
  451. * No filtration, ratings, or other content control system should be
  452.   designed specifically for government usage to censor a populace. It is
  453.   insufficient justification that a government may have laws against
  454.   material that is legal in other parts of the world and accessible
  455.   online. Companies providing such technology to the public must not
  456.   design it to be intentionally easy to abuse in censoring the public,
  457.   and should consciously design their products or services to be difficult
  458.   to scale to such misuses.
  459.  
  460. Notes: As of recent revisions, PICS does NOT appear to be compliant
  461. with this principle.
  462.  
  463.  
  464. 13) Consensus and Standards
  465.  
  466. * Designers and providers of content control technology are encouraged
  467.   to participate in the formulation of open platform, public standards.
  468.  
  469. * In the case of proprietary solutions, care must be taken not to
  470.   undermine public standards, even in the name of extending them.
  471.  
  472. Notes: Open, participatory standardization efforts will increase
  473. justified public trust in the technology and the online environment by 
  474. helping prevent monopolization, the institution of censorship-prone flawed
  475. systems, intellectual property disputes that hold up market progress, and
  476. many other problems.
  477.  
  478.  
  479. 14) Balance of Rights
  480.  
  481. * Providers must be mindful of the rights of the customer and user,
  482.   particularly privacy rights, but also of the content owner's copyright
  483.   and freedom of speech and press.
  484.  
  485. * Intermediaries must take into account the user's right to read and to
  486.   communicate, and to not have personal information revealed or used
  487.   without permission.
  488.  
  489. * The user needs to be aware of intermediaries' institutional or employer
  490.   rights, as well as the rights of other users, of content owners (e.g.,
  491.   copyright), and of the provider (e.g., to collect aggregate,
  492.   NON-identifiable statistical info, without consent.)
  493.  
  494. * Content owners must respect the fair use rights of users, and the
  495.   rights of users and customers to refuse to receive content they do not
  496.   want, as well as a labellers' or raters' rights to honestly review,
  497.   comment on, describe, or block for their subscribers the material they
  498.   encounter online.
  499.  
  500. [end]
  501.  
  502. ------------------------------
  503.  
  504.  
  505. Subject: Quote of the Day
  506. -------------------------
  507.  
  508. "Falsehoods not only disagree with truths, but usually quarrel among
  509. themselves."
  510.   - Daniel Webster (1782-1852)
  511.  
  512. Find yourself wondering if your privacy and freedom of speech are safe 
  513. when bills to censor the Internet are swimming about in a sea of of 
  514. surveillance legislation and anti-terrorism hysteria?  Worried that in 
  515. the rush to make us secure from ourselves that our government 
  516. representatives may deprive us of our essential civil liberties? 
  517. Concerned that legislative efforts nominally to "protect children" will 
  518. actually censor all communications down to only content suitable for 
  519. the playground?  Alarmed by commercial and religious organizations abusing
  520. the judicial and legislative processes to stifle satire, dissent and 
  521. criticism?
  522.  
  523. Join EFF!   
  524. http://www.eff.org/join (or send any message to info@eff.org).
  525.  
  526. Even if you don't live in the U.S., the anti-Internet hysteria will soon 
  527. be visiting a legislative body near you.  If it hasn't already.
  528.  
  529. ------------------------------
  530.  
  531.  
  532. Subject: What YOU Can Do
  533. ------------------------
  534.  
  535. * Keep and eye on your local legislature/parliament
  536. All kinds of wacky censorious legislation is turning up at the US state 
  537. and non-US national levels.  Don't let it sneak by you - or by the 
  538. online activism community. Without locals on the look out, it's very 
  539. difficult for the Net civil liberties community to keep track of what's 
  540. happening locally as well as globally.
  541.  
  542.  
  543. * Inform your corporate government affairs person or staff counsel
  544. if you have one. Keep them up to speed on developments you learn of,
  545. and let your company's management know if you spot an issue that warrants
  546. your company's involvement.
  547.  
  548.  
  549. * Find out who your congresspersons are
  550.  
  551. Writing letters to, faxing, and phoning your representatives in Congress
  552. is one very important strategy of activism, and an essential way of
  553. making sure YOUR voice is heard on vital issues.
  554.  
  555. If you are having difficulty determining who your US legislators are,
  556. try contacting your local League of Women Voters, who maintain a great 
  557. deal of legislator information, or consult the free ZIPPER service
  558. that matches Zip Codes to Congressional districts with about 85%
  559. accuracy at:
  560. http://www.stardot.com/~lukeseem/zip.html
  561.  
  562. Computer Currents Interactive has provided Congress contact info, sorted 
  563. by who voted for and against the Communications Decency Act:
  564. http://www.currents.net/congress.html (NB: Some of these folks have, 
  565. fortunately, been voted out of office.)
  566.  
  567.  
  568. * Join EFF!
  569.  
  570. You *know* privacy, freedom of speech and ability to make your voice heard
  571. in government are important. You have probably participated in our online
  572. campaigns and forums.  Have you become a member of EFF yet?  The best way to
  573. protect your online rights is to be fully informed and to make your
  574. opinions heard.  EFF members are informed and are making a difference.  Join
  575. EFF today!
  576.  
  577. For EFF membership info, send queries to membership@eff.org, or send any
  578. message to info@eff.org for basic EFF info, and a membership form.
  579.  
  580. ------------------------------
  581.  
  582.  
  583. Administrivia
  584. =============
  585.  
  586. EFFector is published by:
  587.  
  588. The Electronic Frontier Foundation
  589. 1550 Bryant St., Suite 725
  590. San Francisco CA 94103 USA
  591. +1 415 436 9333 (voice)
  592. +1 415 436 9993 (fax)
  593. Membership & donations: membership@eff.org
  594. Legal services: ssteele@eff.org
  595. General EFF, legal, policy or online resources queries: ask@eff.org
  596.  
  597. Editor: Stanton McCandlish, Program Director/Webmaster (mech@eff.org)
  598.  
  599. This newsletter is printed on 100% recycled electrons.
  600.  
  601. Reproduction of this publication in electronic media is encouraged.  Signed
  602. articles do not necessarily represent the views of EFF.  To reproduce
  603. signed articles individually, please contact the authors for their express
  604. permission. Press releases and EFF announcements may be reproduced individ-
  605. ually at will.
  606.  
  607. To subscribe to EFFector via email, send message body of "subscribe
  608. effector-online" (without the "quotes") to listserv@eff.org, which will add
  609. you to a subscription list for EFFector.
  610.  
  611. Back issues are available at:
  612. ftp.eff.org, /pub/EFF/Newsletters/EFFector/
  613. gopher.eff.org, 1/EFF/Newsletters/EFFector
  614. http://www.eff.org/pub/EFF/Newsletters/EFFector/
  615.  
  616. To get the latest issue, send any message to effector-reflector@eff.org (or
  617. er@eff.org), and it will be mailed to you automagically.  You can also get
  618. the file "current" from the EFFector directory at the above sites at any 
  619. time for a copy of the current issue.  HTML editions available at:
  620. http://www.eff.org/pub/EFF/Newsletters/EFFector/HTML/ 
  621. at EFFweb.
  622.  
  623. ------------------------------
  624.  
  625.  
  626.  
  627.  
  628.  
  629. End of EFFector Online v10 #03 Digest
  630. *************************************
  631.  
  632. $$
  633.