home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #27 / NN_1992_27.iso / spool / sci / crypt / 4915 < prev    next >
Encoding:
Text File  |  1992-11-17  |  9.1 KB  |  253 lines

  1. Newsgroups: sci.crypt
  2. Path: sparky!uunet!charon.amdahl.com!pacbell.com!decwrl!sun-barr!cs.utexas.edu!milano!cactus.org!ritter
  3. From: ritter@cactus.org (Terry Ritter)
  4. Subject: Re: Demons and Ogres
  5. Message-ID: <1992Nov17.065526.15487@cactus.org>
  6. Organization: Capital Area Central Texas UNIX Society, Austin, Tx
  7. References: <921114182202.126812@DOCKMASTER.NCSC.MIL> <1992Nov17.001009.26363@rchland.ibm.com>
  8. Date: Tue, 17 Nov 1992 06:55:26 GMT
  9. Lines: 242
  10.  
  11.  
  12.  In <1992Nov17.001009.26363@rchland.ibm.com>
  13.  lwloen@rchland.vnet.ibm.com (Larry Loen) writes:
  14.  
  15.  
  16. >Sure, concerns do exist.  Law enforcement has some hard problems.
  17. >But, most of the Bill of Rights is _not there_ to make the job of
  18. >the cops easy; it is explicitly there to make it harder.
  19. >[...]
  20. >But, inconveniencing the cops is and
  21. >ought not be the sole criteria by which we run society.
  22.  
  23.  OK, but society must still "run."  The possibility exists that the
  24.  new technology may break the system so that society cannot "run"
  25.  very well anymore.
  26.  
  27.  
  28. >Again, why is it our duty to help the cops?  We do not necessarily
  29. >have the same interests as they.  [...]
  30.  
  31.  At the cop vs. criminal level, no.  But in the larger sense, we
  32.  all have to live here.  We all want the best society we can have.
  33.  That does not necessarily mean the most efficient nor the best
  34.  regulated nor the most enforced, but it *does* mean that, as a
  35.  society, we obviously *do* have a "duty to help the cops," or we
  36.  wouldn't employ cops at all.
  37.  
  38.  
  39. >[...] Haven't you heard of "thought crime?"  The idea is alive
  40. >and well and you seem bound and determined to help government
  41. >create and enforce it.
  42.  
  43.  Nonsense.
  44.  
  45.  First of all, I just made a *proposal*; if you have a better
  46.  one, let's hear it.
  47.  
  48.  Or, if you have a better approach to arguing for tolerating the
  49.  inevitable misuse of cryptography, let's hear that.
  50.  
  51.  My proposal was to reveal plaintext *under due process*; if
  52.  the courts can't be trusted to uphold your rights, exactly what
  53.  part of government *will* uphold your rights?
  54.  
  55.  
  56. >[...]
  57. >Cryptography, in itself, is value-neutral.
  58.  
  59.  One can say that *any* technology is "value-neutral."  This turns
  60.  out to be a lot easier *before* we understand the negative social
  61.  effects of that technology.
  62.  
  63.  
  64. >[...]Why should the cops be entitled to assume any encrypted communication
  65. >is the latter and not merely some idea I don't feel like revealing yet?
  66.  
  67.  I doubt that a cop searching your "effects" makes any real
  68.  "assumption" about them.  Cops are *allowed* to search (under
  69.  warrant).  Cryptography has *nothing* to do with this.
  70.  
  71.  
  72. >Your argument is really the ancient, flawed, idea that some things are deep,
  73. >dark, secrets that we cannot even trust adults to possess.  "Some things
  74. >mankind is not meant to know".
  75.  
  76.  On the contrary, I propose that we act to put our own house in
  77.  order, to prevent the possible future loss of general access to
  78.  cryptography.
  79.  
  80.  
  81. >Why, if the government cannot look over
  82. >our shoulders, we will all become instant criminals.
  83.  
  84.  The government *has* an implicit "right" under The Fourth
  85.  Amendment to conduct searches and seizures, provided only that
  86.  they obtain an explicit warrant based on probable cause.  The
  87.  government *has*, and always has had, the "right" to "look over
  88.  our shoulders," and that is enshrined in The Bill of Rights.
  89.  My proposal has *not* created this "right."
  90.  
  91.  We *can* say absolutely that criminals would *not* want the
  92.  government to "look over their shoulder."
  93.  
  94.  
  95. >>If use were illegal, any use in
  96. >> communications would draw attention to criminal activity.
  97.  
  98. >[...] An ordinary GIF or ZIP file
  99. >will be totally indistinguishable from an encrypted file if the
  100. >government wiretapping machine misses the first few bytes.  And, new
  101. >compression schemes are invented every day.  Do you propose that every
  102. >implementation of every computer program that compresses data be
  103. >registered?
  104.  
  105.  My proposal, if you would read it, would require *the user* to
  106.  reveal the plaintext.  If the file was GIF or ZIP and *the user*
  107.  could demonstrate that, it would be revealed.  No programs need be
  108.  registered.
  109.  
  110.  You are right, though, that the transmission of random-like files
  111.  would not be a good indicator of criminal activity.  Naturally,
  112.  if the police had enough evidence to get a warrant to search for
  113.  records of criminal activity, and encountered lots of random-like
  114.  files, they might want to see what those files contained.  If the
  115.  files were innocuous, the defendants would have no reason to
  116.  refuse.
  117.  
  118.  Certainly, all of your written documents were subject to search
  119.  under warrant *prior* to the advent of generally-available strong
  120.  cryptography; why should this new technology put your records
  121.  beyond the reach of the courts?
  122.  
  123.  
  124. >But, your
  125. >argument is something like we have to agree to record all of our
  126. >telephone conversations "just in case" the cops later need them
  127. >to justify their claim that we committed some crime or other.
  128.  
  129.  Nonsense.  My proposal is that, given the ciphertext, the user
  130.  would be required to make it plain.  This means that there would
  131.  be a responsibility to log old *keys*, not conversations.
  132.  
  133.  
  134. >[...]What session keys
  135. >did the system generate for the users?
  136.  
  137.  Yes, future systems may have to log session keys.
  138.  
  139.  
  140. >> My approach would be to require that anyone using cryptography
  141. >> be prepared to provide future access to enciphered information
  142. >> to a court under due process.  Failure to do so would be a crime.
  143. >
  144. >But, I use cryptography every day and I DON'T CONTROL THE KEY.  My
  145. >company does the encryption for me.  So do lots of Bank Officers.
  146. >And, so on.  I would be convicted easily of your crime.
  147.  
  148.  It certainly is going to be difficult to discuss proposals if they
  149.  must spring full-blown and precisely-worded into being.  It is
  150.  obvious to me that by "anyone using" I mean "whoever is in control
  151.  of such enciphering."  You would not be convicted of "Failure to
  152.  Reveal" unless you were in control and "somehow" failed to log
  153.  your keys.
  154.  
  155.  
  156. >In other words, if the government cannot prove a crime happened, they
  157. >can "get" you under some technicality or merely for not abjectly
  158. >disclosing to them every private thought you ever had.
  159.  
  160.  Failure to keep tax records is not "a technicality"; failure to
  161.  keep cryptographic records could be treated in the same way.
  162.  
  163.  
  164. >I agree the
  165. >conviction is quick and easy.  Look at what they got Ollie North for.
  166. >You may not like him, but I think that the government spent millions
  167. >and effectively convicted him of spitting on the sidewalk.  Surely,
  168. >what they "got" him for had nothing whatever to do with why he was
  169. >originally investigated.
  170.  
  171.  You mean an Executive-branch officer "lying to Congress," had
  172.  "nothing to do" with the Iran-Contra investigation?
  173.  
  174.  
  175. >I don't frankly consider that a very good
  176. >use of government resources.
  177.  
  178.  Yeah, I would have preferred that Congress *not* have granted
  179.  immunity; then there would have been *no problem* getting a
  180.  conviction.
  181.  
  182.  Any officer of the military who takes the oath to (depending on
  183.  service) "preserve, protect, and defend the Constitution of the
  184.  United States" and as an officer and a gentlemen to "never lie,
  185.  nor tolerate those who do," who then deliberately lies to the
  186.  Representatives of the People of the United States, in my humble
  187.  opinion, deserves a *military* court-martial.  I expect *that*
  188.  would not have lasted very long at all.
  189.  
  190.  
  191. >And I think that "Failure to Disclose", at least the way you describe
  192. >it, is just the sort of thing our government already has too much
  193. >ability to do and will without doubt lead to actual tyranny.  There
  194.  
  195.  It should be easy enough to avoid "Failure to Disclose."
  196.  
  197.  Just . . . disclose.
  198.  
  199.  
  200. >Rights are not free.  They have to be fought for.
  201.  
  202.  For some reason you apparently feel that *you* can lecture *me*
  203.  on the cost of rights and how they are obtained.  It just might
  204.  be possible that I am *far* more personally aware of the cost of
  205.  rights, and what they mean to us, than you appear to be.
  206.  
  207.  
  208. >Why are you helping
  209. >the cops?
  210.  
  211.  First, I got into this by helping *us*, not the cops.
  212.  
  213.  Then I found out that the cryptography in which I have become
  214.  so involved can have extremely serious and bad effects.
  215.  
  216.  Last, why are you *not* "helping the cops"?  You are, of course,
  217.  helping to pay for them.
  218.  
  219.  
  220. >Why are you assuming they will win?
  221.  
  222.  Our *problem* is that ordinary people can be swayed by heinous
  223.  cases, and we have very few arguments which would convince
  224.  ordinary people that other ordinary people should have
  225.  unrestricted access to cryptography.  Does that sound to you
  226.  like a prescription for legislative success?
  227.  
  228.  If it fell to you to argue the proposition, we could absolutely
  229.  *guarantee* "they" would win.  I hope we can improve our odds
  230.  by developing arguments of somewhat higher caliber.  So far,
  231.  we have not had much success, however.
  232.  
  233.  
  234. >Why are you assuming
  235. >their interests and yours always coincide?
  236.  
  237.  Nonsense.  It is precisely *because* our interests differ that I
  238.  seek a defensible position.  Completely unregulated cryptography
  239.  may not be defensible.
  240.  
  241.  
  242. >Or, do you really believe
  243. >that cryptography is inherently dangerous?
  244.  
  245.  I believe that the completely unregulated and absolutely free
  246.  use of cryptography may indeed be dangerous for society.
  247.  
  248.  I am more than willing to be shown wrong.
  249.  
  250.  ---
  251.  Terry Ritter   ritter@cactus.org
  252.  
  253.