home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #27 / NN_1992_27.iso / spool / sci / crypt / 4946 < prev    next >
Encoding:
Text File  |  1992-11-17  |  6.9 KB  |  155 lines

  1. Newsgroups: sci.crypt
  2. Path: sparky!uunet!charon.amdahl.com!pacbell.com!sgiblab!zaphod.mps.ohio-state.edu!magnus.acs.ohio-state.edu!usenet.ins.cwru.edu!agate!doc.ic.ac.uk!mrccrc!warwick!pipex!ibmpcug!impmh!dsg
  3. From: dsg@impmh.uucp (Dave Gordon)
  4. Subject: Re: Limits on the Use of Cryptography?
  5. Message-ID: <1992Nov17.165346.27321@impmh.uucp>
  6. Organization: Integrated Micro Products Ltd
  7. References: <1992Nov11.061210.9933@cactus.org> <1992Nov13.012545.29228@news.eng.convex.com> <1992Nov13.075603.8557@cactus.org>
  8. Date: Tue, 17 Nov 1992 16:53:46 GMT
  9. Lines: 144
  10.  
  11. In <1992Nov13.075603.8557@cactus.org> ritter@cactus.org (Terry Ritter) writes:
  12. >
  13. > In <1992Nov13.012545.29228@news.eng.convex.com>
  14. > gardner@convex.com (Steve Gardner) writes:
  15. >
  16. >>In article <1992Nov12.230445.25742@cactus.org> ritter@cactus.org
  17. >>(Terry Ritter) writes:
  18. >>> Computer cryptography makes it possible for those who accumulate
  19. >>> information to avoid the due-process search which is expected
  20.                                                 ^^^^^^^^^^^^^^^^^
  21. >>> when people accumulate things.
  22.     ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
  23.  
  24. Huh?  Accumulating 'things' is reason for a search??
  25.  
  26. >>    Good memory that is sufficiently selective during a trial
  27. >>    makes it possible for those who accumulate information to
  28. >>    avoid the due-process search which is expected when people
  29. >>    accumulate things.
  30. >>
  31. >>    Do you see what is wrong with this sentence?  Think about it.
  32. >>    Then . . . repeat after me: Information is not a thing.
  33. >>    Information is not a thing.
  34. >
  35. > Actually (wearing my hat as a computer engineer), I directly dispute
  36. > the statement that "Information is not a thing."  I am unaware of
  37. > any concept of "information" which is not held by some "thing."
  38.  
  39. Subtle difference in those last two sentences - yes, information can
  40. be HELD in things, but the information itself is NOT a THING.
  41.         Storage != data != information.
  42.       a 'thing' ^^^^^^^    ^^^^^^^^^^^^^^^^^^^ these are not 'things'
  43.  
  44. Also:    Good enough memory makes it possible for those who
  45.     accumulate information to avoid any disclosure, at
  46.     least until your society condones torture,
  47.     brainwashing, 'truth drugs', etc
  48.  
  49. > Molecules, atoms and electrons are things.  Brain cells are things.
  50.                           ^^^^^^^^^^^^^^^^^^^^^^
  51.  
  52. Yup, best damn way in the world of storing information; massive
  53. capacity, built-in redundancy, associative lookup, *and* totally
  54. immune to decryption (so far).
  55.  
  56. > To return to the point, society has agreed that a person should
  57. > not be compelled to testify against his or herself for any reason.
  58. > (Presumably, this was intended to eliminate some of the abuses of
  59. > torture which occurred in Spanish, English and American societies
  60. > of that period.)  But this fact provides no basis for arguing that
  61. > society does not indeed lay claim to any and all *other*
  62. > information, under legal warrant.  The Constitution testifies that
  63.                                      ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
  64. > society does have such a claim.
  65.   ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
  66.  
  67. I certainly hope it doesn't!  But even if it does, it still doesn't
  68. allow anyone to force disclosure of my *personal* encoding scheme,
  69. which is stored *in my brain* (nowhere else).  The government may
  70. be entitled to look through all my files, but that doesn't mean
  71. they'll be able to understand them!
  72.  
  73. Of course, they would *believe* they understood them; they're not
  74. even PGP-encrypted.  But the 'plain-text' doesn't necessarily
  75. mean what they think it does!
  76.  
  77. For example, I have on my system at home (note: it's not on the
  78. net - sorry, any potential crackers out there) a list of all my
  79. credit cards, with the matching PIN numbers - but encoded by a
  80. personal algorithm.  Even if someone were to steal my cards and
  81. a printout of this file together, it wouldn't be the slightest
  82. bit of use to them; they would have just as good a chance of
  83. getting the correct PINs by using random numbers.  There are
  84. an *infinite* number of algorithms which will map one 4-digit
  85. number to another, and they would have no clue as to which one
  86. I've chosen.
  87.  
  88. >>> The difference is that what was once rare and easily breached by
  89. >>> the authorities is now on its way to becoming common and
  90. >>> impenetrable.  Cryptography really is different from a wall safe.
  91. >>
  92. >>    It will still be impenetrable for law enforcement in the case of
  93. >>    criminals.  Unless you make the "crime" of [possession of] an illegal
  94. >>    encryption device (ie. a computer with the appropriate software)
  95.                              ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
  96. Or a brain with the appropriate knowledge!
  97.  
  98. >    1. Require users to register their keys in advance; presumably,
  99. >       creating or transmitting enciphered information which could
  100. >       not be accessed by a registered key would itself be a crime.
  101. >
  102. >       This could be surprisingly tricky to prove.
  103.  
  104. You ain't kidding!
  105. Imagine this:
  106.     I register my encryption key, as required.
  107.     Some government agency decides to tap my communications,
  108.     and sees a whole string of innocuous-looking messages,
  109.     encrypted with my registered key.  But my accomplice
  110.     decodes those same 'innocuous' messages using *our private
  111.     protocol* to obtain the secret information (and she does
  112.     it in her head, so there is no record).  What 'evidence'
  113.     can the government agency present?  You cannot even
  114.     prove that *this post* has (OR doesn't have) a hidden
  115.     message of this type embedded within it.
  116.  
  117. >    [second alternative deleted]
  118. >
  119. > Note that neither of these cases make computers, cryptographic
  120. > software, or cryptography itself, illegal.
  121.  
  122. Nor are they effective against people who wish to conceal information!
  123.  
  124. > I see very well that criminals would not register keys, and would
  125. > not provide access to enciphered information.  This would be a
  126. > crime in itself, and if this were the only thing the authorities
  127. > could prove, it would at least be something.  Probably, failure to
  128. > disclose enciphered information would be a fact disclosed to the
  129. > jury in the larger case, and so would have an effect there as well.
  130. >
  131. > The defendant would still have the right to not testify against
  132. > (him/her)self without prejudice.  But failure to "open his/her
  133. > books" *could* be used against him/her.
  134.  
  135. Go ahead, my books are open; but they have *meaning* only to me.
  136.  
  137. > *IF* we find that society *does* have an unexpected ultimate
  138. > "right" to access private information, we may want to find some
  139. > least offensive way to provide such access, as opposed to being
  140. > forced to accept whatever proposal the 3-letter agencies would
  141. > prefer.
  142. >
  143. > ---
  144. > Terry Ritter   ritter@cactus.org
  145.  
  146. They would probably prefer a brain-probe, cos that's the only
  147. *effective* means of extracting information from someone who
  148. doesn't want to disclose it ;-}
  149. -- 
  150.  
  151. ===============================================================================
  152. Dave | dsg@imp.co.uk | +44 753 516599 | "C^i tio ne estas .subskribo"
  153. ===============================================================================
  154.  
  155.