home *** CD-ROM | disk | FTP | other *** search
/ Handbook of Infosec Terms 2.0 / Handbook_of_Infosec_Terms_Version_2.0_ISSO.iso / text / privacy / p02_015.txt < prev    next >
Text File  |  1996-09-03  |  33KB  |  684 lines

  1. PRIVACY Forum Digest     Friday, 30 April 1993     Volume 02 : Issue 15
  2.  
  3.           Moderated by Lauren Weinstein (lauren@vortex.com)
  4.                 Vortex Technology, Topanga, CA, U.S.A.
  5.     
  6.                      ===== PRIVACY FORUM =====
  7.  
  8.          The PRIVACY Forum digest is supported in part by the 
  9.           ACM Committee on Computers and Public Policy.
  10.  
  11.  
  12. CONTENTS
  13.     Clipper Observations (Rick Pavek)
  14.     Re: Clipper key announcement (Ken Beal)
  15.     Clipper chip (Alan J. Rosenthal)
  16.     Wiretap Chip and Key Escrow Abuses (Paul Ferguson)
  17.     Letter on SSN and Health Care (Dave Banisar)
  18.     Clinton Administration Freedom of Information Policy (Paul Hyland)
  19.  
  20.  
  21.  *** Please include a RELEVANT "Subject:" line on all submissions! ***
  22.             *** Submissions without them may be ignored! ***
  23.  
  24. -----------------------------------------------------------------------------
  25. The PRIVACY Forum is a moderated digest for the discussion and analysis of
  26. issues relating to the general topic of privacy (both personal and
  27. collective) in the "information age" of the 1990's and beyond.  The
  28. moderator will choose submissions for inclusion based on their relevance and
  29. content.  Submissions will not be routinely acknowledged.
  30.  
  31. ALL submissions should be addressed to "privacy@vortex.com" and must have
  32. RELEVANT "Subject:" lines; submissions without appropriate and relevant
  33. "Subject:" lines may be ignored.  Excessive "signatures" on submissions are
  34. subject to editing.  Subscriptions are by an automatic "listserv" system; for
  35. subscription information, please send a message consisting of the word
  36. "help" (quotes not included) in the BODY of a message to:
  37. "privacy-request@vortex.com".  Mailing list problems should be reported to
  38. "list-maint@vortex.com".  All submissions included in this digest represent
  39. the views of the individual authors and all submissions will be considered
  40. to be distributable without limitations. 
  41.  
  42. The PRIVACY Forum archive, including all issues of the digest and all
  43. related materials, is available via anonymous FTP from site "ftp.vortex.com",
  44. in the "/privacy" directory.  Use the FTP login "ftp" or "anonymous", and
  45. enter your e-mail address as the password.  The typical "README" and "INDEX"
  46. files are available to guide you through the files available for FTP
  47. access.  PRIVACY Forum materials may also be obtained automatically via
  48. e-mail through the listserv system.  Please follow the instructions above
  49. for getting the listserv "help" information, which includes details
  50. regarding the "index" and "get" listserv commands, which are used to access
  51. the PRIVACY Forum archive.  All PRIVACY Forum materials are also
  52. available through the Internet Gopher system via a gopher server on
  53. site "gopher.vortex.com".
  54.  
  55. For information regarding the availability of this digest via FAX, please
  56. send an inquiry to privacy-fax@vortex.com, call (310) 455-9300, or FAX
  57. to (310) 455-2364.
  58. -----------------------------------------------------------------------------
  59.  
  60. VOLUME 02, ISSUE 15
  61.  
  62.    Quote for the day:
  63.  
  64.     "You will say you lose your freedom.  Freedom is an illusion.
  65.      All you lose is the emotion of pride."
  66.  
  67.         -- Colossus
  68.                "Colossus: The Forbin Project"; 1970
  69.     
  70. ----------------------------------------------------------------------
  71.  
  72. Date:    Thu, 22 Apr 1993 14:53:25 -0700
  73. From:    Rick Pavek <kuryakin@halcyon.halcyon.com>
  74. Subject: Clipper Observations
  75.  
  76. Let's see if I can imagine a scenario...
  77.  
  78. Drug dealer goes into an AT&T phone store and asks to see a cellular
  79. phone.  Phone salesperson offers the new Clipper protected model.
  80. DD asks isn't this the new one that the government designed to be
  81. wiretapped?  The salesman says "Yes".  DD says "Let me see an unencrypted
  82. model..."
  83.  
  84.   First point, no one engaged in illegal conduct will knowingly purchase
  85. something designed to be wiretapped.
  86.  
  87.   Second, I imagine that there will be an aftermarket of products that
  88. will add layers of encryption to the devices and make wiretapping again
  89. impossible.  The most successful of these will be ones that are cheap.
  90.  
  91.   Third, will the NSA also be using these Clipper Chips?  Will law
  92. enforcement officials that find a CIA operatative using one be able to
  93. decrypt his transmission, as well?  Obviously, the agencies that are the
  94. most likely to use encryption will not subject themselves to such an easily
  95. defeated means.  (One warrant and two keys to go, please!)
  96.  
  97.   What we need to listen for are rumors of "clipper style" encryption that
  98. can't be busted by normal means.  Just a hunch, but I'll bet that the
  99. NSA and other clandestine organizations will be purchasing "modified" chips
  100. that don't include that "family key F" with their encrypted transmissions,
  101. or that will include bogus ones...
  102.  
  103.   I think the last thing the NSA wants is to be exposed to the observations
  104. of "normal law enforcement agencies".
  105.  
  106.   OK, just realized that the keys to certain chips could be denied to
  107. the search warrants if they were tagged "National Security", eh?  Anyone
  108. with an insight into how the actual process/protection will be setup?
  109.  
  110. Just a curious bloke:
  111. Rick Pavek
  112. Halcyon.com
  113.  
  114. ------------------------------
  115.  
  116. Date:    Fri, 23 Apr 93 16:28:46 EDT
  117. From:    kbeal@amber.ssd.csd.harris.com (Ken Beal)
  118. Subject: Re: Clipper key announcement
  119.  
  120. > From: cstern@novus.com (Chuck Stern)
  121. [...]
  122. > Under the
  123. > current court, however, the exclusionary rule has been relaxed: if the police
  124. > were 'acting in good faith,' then the evidence obtained via an illegally or
  125. > improperly executed search warrant (for example) is admissable.
  126.  
  127. While my input to this has little to do with the Clipper Chip per se
  128. (although I completely disagree with it and hope people will alert
  129. Intergraph's lawyers), I'd like to take issue with the "good faith"
  130. ruling.
  131.  
  132. >Anyone< can >say< that they're acting in good faith.  Why should we
  133. expect that a police officer won't lie?  Especially if it means
  134. busting that so-and-so that he's been after for months?
  135.  
  136. Alternatively: if the cops can do it, then I can too.  "Judge, I
  137. didn't realize it was illegal to [insert offence here]."  etc.
  138.  
  139. Our society has to realize that, badge or no badge, everyone's an
  140. individual.  Everyone has their own ideas and ideals, their own form
  141. of greed to deal with, their own morality and their own vices.  Giving
  142. a segment of the population free reign like this is, quite simply,
  143. frightening.
  144. --
  145. Kenneth L. Beal, Jr.  kbeal@amber.ssd.csd.harris.com
  146.  
  147. ------------------------------
  148.  
  149. Date:    Sat, 24 Apr 1993 13:03:46 -0400
  150. From:    Alan J Rosenthal <flaps@dgp.toronto.edu>
  151. Subject: clipper chip
  152.  
  153. I'm not really picking on a particular posting, so let me quote anonymously.
  154.  
  155. A poster supposes that he has purchased another cryptography unit which is not
  156. breakable by the authorities, as well as purchasing a clipper chip:
  157. >so that I can of course communicate with other normal Clipper units, but
  158. >*also* so that a "casual eavesdropper" would detect nothing amiss on my line:
  159. >since I possess said Clipper unit, one of course *expects* my communications
  160. >to be encrypted.  If the government holds true to its word ...
  161. >Without using the completed Clipper key, the authorities cannot distinguish a
  162. >data stream generated by my [secure] unit from a data stream generated by my
  163. >decidedly legal Clipper unit.
  164.  
  165. I think that now would be a good time for all to re-read Ken Thompson's
  166. "Reflections on Trusting Trust", which was published as an ACM Turing Award
  167. lecture and appears in a collection book called "ACM Turing Award lectures:
  168. the first twenty years, 1966 to 1985", ACM Press, New York, 1987, 0897911830.
  169. Wouldn't it be cool if when you switched off the switch on your telephone which
  170. activates the clipper chip (so that you could use your other chip), the clipper
  171. chip listened in and tried to determine if you were using some other encryption
  172. method and if so, the next time you used the clipper chip, it integrated some
  173. evidence of this fact into the encrypted data stream?  But that's kind of far
  174. out; hopefully others can come up with more plausible scenarios.  But that's
  175. not what I came to talk about here today...
  176.  
  177. The cryptographic algorithm could insert (and remove upon decrypting) a short
  178. literal sequence every specified number of bytes, or anything like that to
  179. prove that you were really using that algorithm to a "casual eavesdropper".  If
  180. the algorithm is unpublished or if the published algorithm is somewhat abstract
  181. so that you can't do it yourself just from reading the article, there would be
  182. no way for a normal person to detect this.  Of course the hypothetical
  183. non-clipper cryptography unit could be designed to contain this sequence as
  184. well, but only if the makers knew it was there.  It is also possible for more
  185. sophisticated characteristics of the stream to indicate that it's really a
  186. clipper chip stream.  One thing which comes to mind is bizarre distribution
  187. properties of the output bytes, assuming the encrypted stuff was digital, which
  188. it probably isn't, but heck this is just an example.  For example, let's say
  189. that data is encoded so that bytes range only from 0-200 rather than 0-255.
  190. Now add 0 to the first byte, 1 to the next byte, and so on, up to adding 55,
  191. then add 0 to the subsequent byte, and so on.  The resulting stream will never
  192. have a value less than (n mod 56) for the nth byte (zero-origin) nor a value
  193. greater than (n mod 56) + 200 for the nth byte.  So the stream would be easily
  194. identifiable but still probably look normal if you didn't know what you were
  195. looking for.  This is just an example and may be flawed because I don't know
  196. too much about cryptology but I think the principle is correct.
  197.  
  198. In the absence of a published algorithm, we can't make ANY assumptions.
  199. It's also still possible that the code is easily broken, or that only one half
  200. of the key (i.e. from only one escrow agent) makes it become easily broken.
  201. Without knowing something about key distribution it's hard to say too much
  202. either; perhaps the keys are assigned in some pattern such that knowing the
  203. manufacturer and the year in which the equipment is manufactured gives you only
  204. a couple of possible values for one of the halves.  Or, say, only a hundred
  205. possibilities, which still renders it feasible to try all of 'em.
  206.  
  207. Someone else made a good point that it sure would simplify things to encode the
  208. serial number of the chip into its broadcast now and then so that the cops
  209. didn't have to enter your home to look at the serial numbers on your equipment.
  210. Wouldn't it save them a lot of time to encode the key instead?
  211.  
  212. Unless I missed it, I haven't seen the DES concerns repeated yet.  They should
  213. be.  The concerns are that one has to be suspicious about the government
  214. promoting a particular cryptographic standard so heavily.  People suspected the
  215. NSA of having some influence over the choice of encryption method for DES.  And
  216. no one ever suggested that DES would have some legal status with respect to
  217. individuals.
  218.  
  219. in solidarity,
  220. Alan "V guvax jr fubhyq cebzbgr ebg13 nf gur arj rapelcgvba fgnaqneq" Rosenthal
  221.  
  222. ------------------------------
  223.  
  224. Date:    Wed, 28 Apr 93 11:19:44 EDT
  225. From:    fergp@sytex.com (Paul Ferguson)
  226. Subject: Wiretap Chip and Key Escrow Abuses
  227.  
  228. I've been following the discussions on several newsgroups and
  229. mailing lists (RISKS, PRIVACY and Cypherpunks) concerning the
  230. Wiretap Chip (Clipper/Capstone) and the proposed key escrow
  231. system.
  232.  
  233. Here's my $.02, as well.
  234.  
  235. In RISK 14.55, <jim@RSA.COM> Jim Bidzos wrote -
  236.  
  237. JB> Since Clipper, as currently defined, cannot be implemented in
  238. JB> software, what options are available to those who can benefit
  239. JB> from cryptography in software? Was a study of the impact on
  240. JB> these vendors or of the potential cost to the software industry
  241. JB> conducted?  (Much of the use of cryptography by software
  242. JB> companies, particularly those in the entertainment industry, is
  243. JB> for the protection of their intellectual property. Using hardware
  244. JB> is not economically feasible for most of them.)
  245.  
  246.  Jim raises a valid concern. Although a hardware based system is
  247.  ideal for voice encryption, the idea of registered key systems,
  248.  where government and/or LE agencies have involvement, is not a
  249.  popular one. The key escrow scheme in this proposal reeks of Big
  250.  Brother. (As in, "Trust me. I'm from the government and I'm your
  251.  friend.") In some circles, it is not even a consideration.
  252.  Software encryption systems employed to protect intellectual and
  253.  commercial data and electronic mail are much more flexible and
  254.  desirable, especially when they are not governmentally proposed,
  255.  imposed, designed and sanctioned by spook organizations such as
  256.  the NSA.
  257.  
  258.  The real sore spot with the Clipper proposal is that private
  259.  industry and citizenry were blind-sided by this entire process.
  260.  The possibility that Uncle Sam will try to make this a de-facto
  261.  standard and subsequently place restrictions on other forms of
  262.  crypto (eg. software based) is real.
  263.  
  264.  Also in RISKS 14.55, <billc@glacier.sierra.com> Bill Campbell
  265.  wrotes -
  266.  
  267. BC> There are dozens, perhaps hundreds, of commercial, criminal and
  268. BC> governmental entities with access to government resources who
  269. BC> would not hesitate for a moment to violate my rights if they
  270. BC> found it expedient to do so.  These individuals and organizations
  271. BC> have demonstrated beyond question that they are not constrained
  272. BC> by legal or ethical considerations, and as has been suggested
  273. BC> in a number of other postings, the technology employed by Clipper
  274. BC> (including the dual escrow sham) will probably not even pose so
  275. BC> much as an inconvenience to a determined adversary.  To suggest
  276. BC> otherwise is, at best, profoundly naive.
  277.  
  278.  I have a tendency to agree with Bill. In fact, California is
  279.  currently embroiled in a scandal involving the release of
  280.  confidential data (DMV addresses), by employees of the Anaheim
  281.  Police Department, to third party interests. This is clearly in
  282.  violation of their employer's policies, their own terms of
  283.  employment, state criminal law, and civil law. What's to
  284.  stop the same blatant, unethical breech of confidentiality with
  285.  regards to the Clipper key escrow implementation? Nothing, that's
  286.  what. In the future, information will be the most powerful possession
  287.  and in the spirit of SNEAKERS, s/he who has control of and access to
  288.  the information is the most powerful. Power corrupts, but absolute
  289.  power corrupts absolutely. I think that Clipper offers maximum abuse
  290.  in this scenario.
  291.  
  292.  Also in RISK 14.55, <firth@SEI.CMU.EDU> Robert Firth wrote -
  293.  
  294. RF> You see, friends, if the Clipper becomes the normal, standard, or
  295. RF> accepted means of encryption, then *the use of any other encryption
  296. RF> scheme can of itself be considered "probable cause" for search and
  297. RF> seizure*.  And thereby could be lost in the courts what was won at
  298. RF> such great cost.
  299.  
  300.  This is perhaps my greatest concern in all of the Clipper/Capstone
  301.  hoopla. Personally, I don't have much faith in the law enforcment
  302.  agencies to act responsibly. The Secret Service and FBI have, in the
  303.  past, clearly demonstrated that do not grasp the scope of the
  304.  problems technically challenging modern society. The Steve Jackson
  305.  Games case is one instance that immediately springs to mind. Some
  306.  parts of the country are demographically more at risk than others.
  307.  For example, the criteria which may be deemed as "probable cause"
  308.  for search and seizure in Jackson, Mississippi could very well be
  309.  reason for the ACLU to file a suit against the LEA in New York City.
  310.  
  311.  Also in RISKS 14.55, <padgett@tccslr.dnet.mmc.com> A. PADGETT
  312.  PETERSON writes -
  313.  
  314. PP> Like I said, both the government and corporate America *need*
  315. PP> Clipper, the designers are some of the best in the world, and
  316. PP> the administration has more to lose than we do. Given that,
  317. PP> Clipper will work as advertised.
  318.  
  319.  The only way that I can imagine the government actually *needing*
  320.  Clipper is where Clipper is forced upon the country as the de-facto
  321.  standard and other forms of cryptography are restricted. Uncle Sam
  322.  tends to forget that what is desirable for the government, is not
  323.  always acceptable to the public at large.
  324.  
  325.  Cynically,
  326.  
  327. Paul Ferguson               
  328. Network Integrator          
  329. Centreville, Virginia USA   
  330. fergp@sytex.com             
  331.  
  332. ------------------------------
  333.  
  334. Date:    Thu, 29 Apr 1993 9:42:58 EST    
  335. From:    Dave Banisar <banisar@washofc.cpsr.org>
  336. Subject: Letter on SSN and Health Care
  337.  
  338. PRESS RELEASE 
  339. April 26, 1993
  340.  
  341. Contact:    Dave Banisar
  342.         202/544-9240 (tel)
  343.         202/547-5481 (fax)
  344.     banisar@washofc.cpsr.org (email)
  345.  
  346. Experts Call for Medical Privacy Protection:
  347.  
  348. Recommend that Social Security number be LEFT OFF Health ID Card
  349.  
  350.     Leading privacy experts have called on Hillary Rodham Clinton
  351. to establish privacy safeguards for medical identification cards.
  352. Mrs. Clinton chairs the Health Care Reform Task Force and is expected
  353. to release a report on the program in the next few weeks.
  354.  
  355.     The letter specifically asks Mrs. Clinton to avoid using the
  356. Social Security Number for patient record identification.  "Now is
  357. the right time to develop an appropriate identification scheme.  A
  358. poorly designed system will create privacy problems for many years to
  359. come."
  360.  
  361.     The letter says that the widespread use of the SSN has led to
  362. an increase in credit and banking fraud. "The harm that can be
  363. inflicted from the disclosure of a SSN to an unscrupulous individual
  364. is alarming and potentially ruinous."
  365.  
  366.     The signatories of the letter include the countries leading
  367. experts on privacy protection, computer security, information law,
  368. and technology and society.
  369.     Among the signers are Janlori Goldman, head of the ACLU
  370. Privacy and Technology Project and Evan Hendricks of the US Privacy
  371. Council.
  372.     Mr. Hendricks said, "The privacy problems with medical
  373. records are frightening.  If you don't prohibit Social Security
  374. numbers, you're left with a miniaturized ticking bomb inside every
  375. health care card."
  376.  
  377.     The letter was signed by Professor Eric Roberts, Department
  378. of Computer Science, Stanford University; President, Computer
  379. Professionals for Social Responsibility (CPSR); Janlori Goldman,
  380. Director, ACLU Privacy and Technology Project; Evan Hendricks, Chair,
  381. US Privacy Council; Sheri Alpert, author, "Medical Records, Privacy
  382. and Health Care Reform"; Michael S. Baum, Chair, EDI and Information
  383. Technology Division, Section of Science and Technology, American Bar
  384. Association; Professor Mary J. Culnan, School of Business
  385. Administration, Georgetown University; Simon Davies, Director
  386. General, Privacy International; Jack Esbin, Secretary, ACM; Professor
  387. Oscar Gandy, Annenberg School for Communication, University of
  388. Pennsylvania; Marc Greidinger, plaintiff in Greidinger v. Davis;
  389. Chris Hibbert, Chair, CPSR Palo Alto Civil Liberties Working Group;
  390. Professor Lance Hoffman, Department of Electrical Engineering and
  391. Computer Science, George Washington University; Jim Horning, Systems
  392. Research Center, Palo Alto, Digital Equipment Corporation; Larry
  393. Hunter, Chair, CPSR/DC; Professor Gary Marx, Director, Center for the
  394. Social Study of Information Technology, University of Colorado; Peter
  395. G. Neumann, Principal Scientist, Computer Science Laboratory, SRI
  396. International; Amy Pearl, Member of Technical Staff, Sun
  397. Microsystems; Professor Henry H. Perritt, Jr., Villanova University
  398. School of Law; Professor Priscilla M. Regan, Department of Public and
  399. International Affairs, George Mason University; Virginia Rezmierski,
  400. Information Technology Division, University of Michigan; Professor
  401. Ron Rivest, Laboratory for Computer Science, MIT; Marc Rotenberg,
  402. Director, CPSR Washington office; Professor Rohan Samarajiva,
  403. National Regulatory Research Institute, Ohio State University;
  404. Barbara Simons, Chair, ACM Public Policy Committee; Robert Ellis
  405. Smith, Publisher, Privacy Journal; Professor George Trubow, John
  406. Marshall School of Law; A. Joe Turner; Fred W. Weingarten, Executive
  407. Director, Computing Research Associates; and, Paul Wolfson, staff
  408. attorney, Public Citizen Litigation Group.
  409.  
  410.       --------------------------------------------------
  411.  
  412. April 26, 1993
  413.  
  414. Mrs Hillary Rodham Clinton, 
  415. Chairperson Health Care Reform Task Force
  416. The White House 
  417. 1600 Pennsylvania Ave., NW 
  418. Washington, DC 20550
  419.  
  420. Dear Mrs. Clinton,
  421.  
  422.     We are writing to you regarding privacy protection and the
  423. anticipated report of the Health Care Reform Task Force. There are
  424. many privacy issues in the management of medical records, but one
  425. issue we are specifically concerned about is the possible use of the
  426. Social Security Number as a patient identifier.  It is our belief
  427. that the SSN should not be used for medical record identification and
  428. that an alternative identification scheme must be developed.
  429.  
  430.     Now is the right time to develop an appropriate
  431. identification scheme.  A good plan will serve the goal of
  432. streamlining health care administration while avoiding the risk
  433. inherent in the use of the Social Security number.  A poorly designed
  434. system will create privacy problems for many years to come.
  435.  
  436.     There are several reasons we believe the SSN should not be
  437. used as a patient identifier.
  438.  
  439.     First, the widespread use of the SSN has led to an increase
  440. in credit and banking fraud and invites many types of abuse.  A
  441. recent decision from a federal appeals court said simply that "the
  442. harm that can be inflicted from the disclosure of a SSN to an
  443. unscrupulous individual is alarming and potentially financially
  444. ruinous."  For this reason, the Social Security Administration has
  445. said that it opposes new uses of the SSN for record identification.
  446.  
  447.     Second, the use of the SSN increases the likelihood that
  448. medical information will be improperly disclosed to insurers,
  449. employers, and others.  Direct marketing firms use the SSN to link
  450. discrete records about individuals.  While it may be appropriate to
  451. collect the SSN for some purposes, there is no reason that it should
  452. be publicly disseminated.
  453.  
  454.     Third, section 7 of the Privacy Act of 1974 creates a
  455. presumption that the Social Security number should not be used for
  456. record-keeping purposes unrelated to Social Security and taxation.
  457. Congress recognized the dangers of widespread use of the SSN as a
  458. universal identifier.  The Senate report stated that the widespread
  459. use of SSNs is "one of the most serious manifestations of privacy
  460. concerns in the Nation."  Since passage of the Privacy Act, concern
  461. about SSN confidentiality and misuse has become even more compelling.
  462.  
  463.     Fourth, from a technical viewpoint, the SSN is not a good
  464. identifier. It is not unique, there are multiple users of a single
  465. SSN, and the absence of certain technical features makes it difficult
  466. to determine whether a random nine-digit number is in fact an SSN.
  467. The use of the current SSN as a patient identifier will likely lead
  468. to record misidentifications that could otherwise be avoided.
  469.  
  470.     Many organizations that provide comprehensive health services
  471. do not use the SSN as a patient identifier.  For example, the Harvard
  472. Community Health Plan, with over half a million subscribers, uses a
  473. separate number for patient identification in its automated records
  474. system.  The SSN is collected for administrative use but is not
  475. publicly disclosed.
  476.  
  477.     Also, when Canada confronted the issue of patient record
  478. identification several years ago, the province of Ontario decided not
  479. to use the Social Insurance Number, and instead to develop a separate
  480. Medical Identification Number.  Ontario also passed legislation
  481. restricting the use of the MID for health care purposes.  We believe
  482. that a similar approach, based on an identification scheme unique for
  483. medical records and supported by clear legal safeguards, should be
  484. pursued in the United States.
  485.  
  486.     The protection of privacy is a critical part of the delivery
  487. of quality health care services.  Patients and health care providers
  488. both require the assurance of confidently so that accurate and
  489. complete information will be available for diagnosis and ongoing
  490. patient care.  Absent clear safeguards for privacy protection,
  491. patients may not be forthcoming about potentially embarrassing but
  492. medically relevant facts which providers should know.
  493.  
  494.     For these reasons, privacy protection must be incorporated
  495. into the recommendations of the Health Care Reform Task Force.
  496. Identification schemes that diminish the confidentiality of patient
  497. records should be avoided.
  498.  
  499.     In spite of the superficial attractiveness of the SSN, we
  500. urge the Health Care Task Force to state clearly in the anticipated
  501. report that the Social Security Number should not be used as a
  502. patient identifier.
  503.  
  504.     We would be pleased to meet with those members of the Task
  505. Force that you have asked to examine privacy concerns, and also to
  506. work with you personally or any other members of your staff regarding
  507. the problems with the use of the SSN.
  508.  
  509.  
  510. Sincerely yours,
  511.  
  512.  
  513. Professor Eric Roberts, Department of Computer Science, Stanford
  514. University; President, Computer Professionals for Social
  515. Responsibility (CPSR)
  516.  
  517. Janlori Goldman, Director, ACLU Privacy and Technology Project
  518.  
  519. Evan Hendricks, Chair, US Privacy Council
  520.  
  521. Sheri Alpert, author, "Medical Records, Privacy and Health Care
  522. Reform"
  523.  
  524. Michael S. Baum, Chair, EDI and Information Technology Division,
  525. Section of Science and Technology, American Bar Association
  526.  
  527. Professor Mary J. Culnan, School of Business Administration,
  528. Georgetown University
  529.  
  530. Simon Davies, Director General, Privacy International
  531.  
  532. Jack Esbin, Secretary, Association of Computing Machinists
  533.  
  534. Professor Oscar Gandy, Annenberg School for Communication, University
  535. of Pennsylvania
  536.  
  537. Marc Greidinger, plaintiff in Greidinger v. Davis
  538.  
  539. Chris Hibbert, Chair, CPSR Palo Alto Civil Liberties Working Group
  540.  
  541. Professor Lance Hoffman, Department of Electrical Engineering and
  542. Computer Science, George Washington University
  543.  
  544. Jim Horning, Systems Research Center, Palo Alto, Digital Equipment
  545. Corporation
  546.  
  547. Larry Hunter, Chair, CPSR/DC
  548.  
  549. Professor Gary Marx, Director, Center for the Social Study of
  550. Information Technology, University of Colorado
  551.  
  552. Peter G. Neumann, Principal Scientist, Computer Science Laboratory,
  553. SRI International
  554.  
  555. Amy Pearl, Member of Technical Staff, Sun Microsystems
  556.  
  557. Professor Henry H. Perritt, Jr., Villanova University School of Law
  558.  
  559. Professor Priscilla M. Regan, Department of Public and International
  560. Affairs, George Mason University
  561.  
  562. Virginia Rezmierski, Information Technology Division, University of
  563. Michigan
  564.  
  565. Professor Ron Rivest, Laboratory for Computer Science, MIT
  566.  
  567.     Marc Rotenberg, Director, CPSR Washington office
  568.  
  569. Professor Rohan Samarajiva, National Regulatory Research Institute,
  570. Ohio State University
  571.  
  572. Barbara Simons, Chair, ACM Public Policy Committee
  573.  
  574. Robert Ellis Smith, Publisher, Privacy Journal
  575.  
  576. Professor George Trubow, John Marshall School of Law
  577.  
  578. A. Joe Turner
  579.  
  580. Fred W. Weingarten, Executive Director, Computing Research Associates
  581.  
  582. Paul Wolfson, staff attorney, Public Citizen Litigation Group
  583.  
  584.     (Affiliations listed for identification purposes)
  585.  
  586. cc:  Ira Magaziner
  587.         Dennis Steinhauer, NIST
  588.  
  589. ------------------------------
  590.  
  591. Date:    Fri, 30 Apr 1993 11:23:41 EDT
  592. From:    Paul Hyland <phyland@essential.org>
  593. Subject: Clinton Administration Freedom of Information Policy
  594.  
  595.            [ Original posting source: nigel.allen@canrem.com in 
  596.              igc:alt.news-media -- MODERATOR ]
  597.  
  598.  White House Official Outlines Freedom of Information Strategy
  599.  at 'Information Summit'
  600.  
  601.  To: National Desk, Media Writer
  602.  Contact: Ellen Nelson of The Freedom Forum First Amendment Center,
  603.           615-321-9588
  604.  
  605.    NASHVILLE, Tenn., April 13  -- A White House official
  606. today outlined a broad open government strategy for
  607. the Clinton administration, throwing support behind legislation
  608. to apply the Freedom of Information Act to electronic records.
  609.    "At the Clinton White House, most of the debate over the E-mail
  610. system is about how we can interconnect it to public services rather
  611. than how we can destroy the records or tear out the hard drives
  612. before the subpoenas come to reach us," said John Podesta, assistant
  613. to the president and staff secretary.
  614.    Podesta made his comments in front of 70 participants in the
  615. nation's first Freedom of Information Summit, sponsored by The
  616. Freedom Forum First Amendment Center at Vanderbilt University.
  617.    Though the economy dominates the headlines, Podesta said the new
  618. administration was quietly working across a broad front to open
  619. government.  His "predictions for the first year," included:
  620.  
  621.    -- Working with Sen. Patrick Leahy (D-Vermont) to win approval
  622. this session for a bill allowing access to dozens of electronic
  623. databases in the federal government.
  624.    -- Developing an electronic mail system within the federal
  625. government to improve citizen participation in government.
  626.    -- Making the government's archives available on the nation's
  627. "information highway," and appointing a national archivist "who
  628. cares more about preserving history than about preserving his job."
  629.    --Creating a "mood of declassification" with new executive orders
  630. from the president outlining what government may keep secret.
  631.    -- "Reinventing government" under initiatives developed by the
  632. fall by Vice President Gore to require more openness on the part of
  633. civil servants throughout the bureaucracy.
  634.  
  635.    Podesta also pledged lobbying reform and political reform to "get
  636. rid of the soft money in campaigns." The Freedom of Information
  637. Act may need strengthening in addition to electronic access, he said.
  638.    Pinched by a dozen years of tight information policy, news
  639. organizations have sent President Clinton a freedom of information
  640. policy paper calling for wholesale personnel changes in FOIA-related
  641. jobs, junking the secrecy classifications of President Reagan's
  642. Executive Order 12356, overhauling the Freedom of Information Act and
  643. ending military censorship of war reporting.
  644.    "People working on behalf of the public on more openness in
  645. government at all levels are heartened by the prospect of the White
  646. House taking the lead in this area," said Paul McMasters, executive
  647. director of The Freedom Forum First Amendment Center at Vanderbilt
  648. University.
  649.    The conference, sponsored by The Freedom Forum First Amendment
  650. Center at Vanderbilt University, is focusing on issues ranging from
  651. the Clinton administration's policies on open government to
  652. restrictions on public access to crime, accident and disaster scenes.
  653. The conference, open to the public, is at the Stouffer Hotel in
  654. downtown Nashville.
  655.    Speakers on the Clinton FOI Agenda included Richard Schmidt Jr.,
  656. general counsel to the American Society of Newspaper Editors and
  657. partner in the law firm of Cohn & Marks in Washington, D.C.; Theresa
  658. Amato, the director of the FOI Clearinghouse in Washington, D.C. and
  659. staff counsel for Public Citizens Litigation Group in Washington,
  660. D.C.; and Quinlan Shea, former Carter administration official who
  661. discussed problems of access to government.  Former American hostage
  662. Terry Anderson will give the keynote address at the dinner tonight.
  663.    The Freedom Forum First Amendment Center at Vanderbilt University
  664. is an independent operating program of The Freedom Forum.  The
  665. Center's mission is to foster a better public understanding of and
  666. appreciation for First Amendment rights and values, including freedom
  667. of religion, free speech and press, the right to petition government
  668. and peaceful assembly.
  669.    The Freedom Forum is a nonpartisan, international organization
  670. dedicated to free press, free speech and free spirit for all people.
  671. It is supported entirely by an endowment established by Frank E.
  672. Gannett in 1935 that has grown to more than $700 million in
  673. diversified managed assets.  Its headquarters is The Freedom Forum
  674. World Center in Arlington, Va.
  675.  -30-
  676. --
  677. Canada Remote Systems - Toronto, Ontario
  678. 416-629-7000/629-7044
  679.  
  680. ------------------------------
  681.  
  682. End of PRIVACY Forum Digest 02.15
  683. ************************
  684.