home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #26 / NN_1992_26.iso / spool / sci / crypt / 4719 < prev    next >
Encoding:
Text File  |  1992-11-13  |  6.1 KB  |  142 lines

  1. Newsgroups: sci.crypt
  2. Path: sparky!uunet!cs.utexas.edu!milano!cactus.org!ritter
  3. From: ritter@cactus.org (Terry Ritter)
  4. Subject: Re: Limits on the Use of Cryptography?
  5. Message-ID: <1992Nov13.075603.8557@cactus.org>
  6. Organization: Capital Area Central Texas UNIX Society, Austin, Tx
  7. References: <1992Nov11.061210.9933@cactus.org> <1992Nov13.012545.29228@news.eng.convex.com>
  8. Date: Fri, 13 Nov 1992 07:56:03 GMT
  9. Lines: 131
  10.  
  11.  
  12.  In <1992Nov13.012545.29228@news.eng.convex.com>
  13.  gardner@convex.com (Steve Gardner) writes:
  14.  
  15.  
  16. >In article <1992Nov12.230445.25742@cactus.org> ritter@cactus.org
  17. >(Terry Ritter) writes:
  18. >> Computer cryptography makes it possible for those who accumulate
  19. >> information to avoid the due-process search which is expected
  20. >> when people accumulate things.
  21. >    Good memory that is sufficiently selective during a trial
  22. >    makes it possible for those who accumulate information to
  23. >    avoid the due-process search which is expected when people
  24. >    accumulate things.
  25. >
  26. >    Do you see what is wrong with this sentence?  Think about it.
  27. >    Then . . . repeat after me: Information is not a thing.
  28. >    Information is not a thing.
  29.  
  30.  Actually (wearing my hat as a computer engineer), I directly dispute
  31.  the statement that "Information is not a thing."  I am unaware of
  32.  any concept of "information" which is not held by some "thing."
  33.  Paper is a thing.  Silicon is a thing.  Capacitors are things.
  34.  Magnetic domains exist in magnetic material which is a thing.
  35.  Molecules, atoms and electrons are things.  Brain cells are things.
  36.  About the only way to store information in "no thing" is by
  37.  electromagnetic waves, but if that information is ever to be used
  38.  (Q: Is unused information "information"?), it must somehow *affect*
  39.  a *thing*.  Information is *always* associated with things.
  40.  
  41.  To return to the point, society has agreed that a person should
  42.  not be compelled to testify against his or herself for any reason.
  43.  (Presumably, this was intended to eliminate some of the abuses of
  44.  torture which occurred in Spanish, English and American societies
  45.  of that period.)  But this fact provides no basis for arguing that
  46.  society does not indeed lay claim to any and all *other*
  47.  information, under legal warrant.  The Constitution testifies that
  48.  society does have such a claim.
  49.  
  50.  This is the way our society has been.  Cryptography and computers
  51.  change this in a fundamental way.  We might argue that this
  52.  cornerstone of our society is not very important, or perhaps that
  53.  it *should* be changed, but we cannot argue that a sea-change
  54.  is not about to happen because of cryptography.
  55.  
  56.  
  57. >> The difference is that what was once rare and easily breached by
  58. >> the authorities is now on its way to becoming common and
  59. >> impenetrable.  Cryptography really is different from a wall safe.
  60. >    It will still be impenetrable for law enforcement in the
  61. >    case of criminals.  Unless you make the "crime" of an illegal
  62. >    encryption device (ie. a computer with th appropriate software)
  63.  
  64.  I believe most readers will recall that I have clearly stated,
  65.  several times, ***FOR THE PURPOSE OF DISCUSSION***, two approaches:
  66.  
  67.  
  68.     1. Require users to register their keys in advance; presumably,
  69.        creating or transmitting enciphered information which could
  70.        not be accessed by a registered key would itself be a crime.
  71.  
  72.        This could be surprisingly tricky to prove.
  73.  
  74.        This implies a key-registration bureaucracy, and also
  75.        supports wiretapping for content without warning the
  76.        target.
  77.  
  78.        It inconveniences 99% of the users, simply to allow access
  79.        to the other 1%, who would not use registered keys anyway.
  80.  
  81.        Misused, it would also allow "fishing expeditions."
  82.  
  83.  
  84.     2. As an alternative, I have proposed that each user be
  85.        responsible for providing keys, after the fact, in response
  86.        to a legal warrant.  Failure to do so would be a crime.
  87.  
  88.        This would be easy to prove, although there would always be
  89.        some percentage of honest mistakes which juries would have
  90.        to address.
  91.  
  92.        This would eliminate the key-registration bureaucracy, but
  93.        *would* require users to archive their keys without fail.
  94.        This would inconvenience all users to some extent, and
  95.        would make the use of cryptography a serious issue.
  96.  
  97.        It would prevent wiretapping for content (but not traffic
  98.        analysis), but would warn an entire conspiracy the instant
  99.        a single individual was approached.
  100.  
  101.        "Fishing expeditions" would rapidly become apparent.
  102.  
  103.  
  104.  Note that neither of these cases make computers, cryptographic
  105.  software, or cryptography itself, illegal.
  106.  
  107.  
  108. >    comparable to the most heavily punished felonies recognized by
  109. >    the law criminals commiting those felonies will use it and they will
  110. >    consider the risk quite acceptable.  The only people who will be denied
  111. >    the right to some privacy from big brother will be decent
  112. >    law abiding citizens.  I don't understand why you can't see
  113. >    this.  Is it really that hard a concept?!?
  114.  
  115.  I see very well that criminals would not register keys, and would
  116.  not provide access to enciphered information.  This would be a
  117.  crime in itself, and if this were the only thing the authorities
  118.  could prove, it would at least be something.  Probably, failure to
  119.  disclose enciphered information would be a fact disclosed to the
  120.  jury in the larger case, and so would have an effect there as well.
  121.  
  122.  The defendant would still have the right to not testify against
  123.  (him/her)self without prejudice.  But failure to "open his/her
  124.  books" *could* be used against him/her.  (I am an engineer and
  125.  not a lawyer; I *assume* that testimony about "destruction of
  126.  evidence" can be used in a larger case now.)
  127.  
  128.  I do note that the traditional protections accorded to notes taken
  129.  by the press may (if enciphered) need to be excepted, or handled
  130.  on a case-by-case basis.
  131.  
  132.  
  133.  *IF* we find that society *does* have an unexpected ultimate
  134.  "right" to access private information, we may want to find some
  135.  least offensive way to provide such access, as opposed to being
  136.  forced to accept whatever proposal the 3-letter agencies would
  137.  prefer.
  138.  
  139.  ---
  140.  Terry Ritter   ritter@cactus.org
  141.  
  142.