home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #27 / NN_1992_27.iso / spool / bionet / infothe / 986 < prev    next >
Encoding:
Internet Message Format  |  1992-11-17  |  5.1 KB

  1. Path: sparky!uunet!biosci!agate!ames!saimiri.primate.wisc.edu!zaphod.mps.ohio-state.edu!darwin.sura.net!spool.mu.edu!umn.edu!news
  2. From: burchard@geom.umn.edu (Paul Burchard)
  3. Newsgroups: bionet.info-theory
  4. Subject: Re:  A Mathematical Fireside Chat at 300K about 0K
  5. Message-ID: <1992Nov17.155936.12947@news2.cis.umn.edu>
  6. Date: 17 Nov 92 15:59:36 GMT
  7. References: <9211152208.AA19972@eureka.buc.edu.au>
  8. Sender: news@news2.cis.umn.edu (Usenet News Administration)
  9. Distribution: bionet
  10. Organization: University of Minnesota
  11. Lines: 104
  12. Nntp-Posting-Host: mobius.geom.umn.edu
  13.  
  14. In article <9211152208.AA19972@eureka.buc.edu.au>
  15. kjm@buc.edu.au (Kevin Moore) writes:
  16. > In article <9211140822.AA01880@net.bio.net>
  17. > burchard@horizon.math.utah.edu (Paul Burchard) writes:
  18. >> Our conclusion?  Temperature implies an upper bound on (physical)
  19. >> entropy, and under physically correct assumptions, this upper 
  20. >> bound goes to zero as the temperature goes to zero.  Therefore,
  21. >> zero temperature implies zero entropy.
  22. > I'll go along with this.
  23.  
  24. Well, that is the basic argument I wanted to make, so let's
  25. work backwards from there and see where I may have erred
  26. along the way.
  27.  
  28. What seems to have gotten people the most upset was my talk
  29. of absolute energy scales.  As Kevin points out, you can of
  30. course shift the entire theory to any energy "origin" and
  31. it will work fine.  (For exponentials, translation and
  32. scaling are the same thing, hence the Z.)
  33.  
  34. So to make my point in a less inflamatory way, what I'm claiming
  35. is that we must be given an absolute energy minimum as prior
  36. information.  Without this, there is no consistent way to
  37. define a heat bath, whose only property is temperature.  For
  38. simplicity, we can then shift our energy scale to put that
  39. absolute minimum at zero.  (I remain skeptical, however, that
  40. this absolute minimum would always be set to the ground state
  41. energy in the quantum case.)
  42.  
  43. The other thing that proved to be kindling was my definition
  44. of temperature as average energy per state.  Here the disagreement
  45. is more interesting:
  46.  
  47. >> Note that T also shows up as the exponential decay rate of p(E).  
  48. >> This suggests an alternative definition of temperature, which 
  49. >> allows the possibility of "negative absolute temperature".  We 
  50. >> ignore this definition.
  51. > Why? That T corresponds to the integrating factor in
  52. > dQ=dS/T. It therefore corresponds to the thermodynamic
  53. > definition. 
  54.  
  55. That's an interesting point.  Could you explain this a bit further?
  56. The correspondence isn't immediately obvious to me...
  57.  
  58. > As I said earlier, the average energy definition is a BAD
  59. > one. In fact it only works for classical particles, with
  60. > no exchange interaction. All the particles in the ground
  61. > state is 0K. ($\beta=1/kT$ is infinite) 
  62.  
  63. My definition was E per state, not per particle.
  64.  
  65. In any case, the REAL test of which temperature definition is
  66. correct must be settled by checking which one gives the correct
  67. direction of heat flow when two systems of different temperature
  68. are "weakly coupled".  I would think that the average energy per
  69. state would equalize between the two---are you claiming that the
  70. exponential decay rates of the energy distribution equalize
  71. instead, in the case when these two definitions disagree?
  72.  
  73. >>     2. In order to make sense of the limiting maximum entropy
  74. >>         as T goes to zero, we had to assume discreteness
  75. >>         of energy levels.  Classically, it's trouble again.
  76. >> In fact, I'm skeptical that we can make classical sense of
  77. >> entropy at 0K.  The entropy bound's divergence to minus infinity 
  78. >> reflects the infinite information difference between a continuous 
  79. >> and a discrete probability distribution.  It might still be 
  80. >> possible to renormalize these calculations somehow, but that's a 
  81. >> slippery business in itself.
  82. > Yep. You use $\int \rho\log\frac{\rho}{m} d\tau$,
  83. > where $m$ is the Lebesgue measure on phase space $\tau$.
  84. > The $m$ is important, because it makes the information
  85. > entropy invariant under choice of parametrisation of
  86. > phase space. Klir, the fuzzy set person, (unforgivably)
  87. > sets up a straw man by leaving out the measure when
  88. > criticising the maximum entropy procedure. 
  89.  
  90. Wait!  I think max entropy is great, and in fact I'm already using
  91. your definition for continuous distributions.
  92.  
  93. My point is that we get in trouble defining the *limiting* entropy
  94. in the continuous case.  Measured continuously, the limit is minus
  95. infinity; however, that corresponds to the fact that the continuous
  96. distribution is becoming discrete---somehow we need to "subtract an
  97. infinite constant" to make sense of the limit.  As long as the energy 
  98. minimum is non-degenerate, we could hope that this minus infinity 
  99. "renormalizes" to zero, because in that case, the distribution is
  100. approaching a single-point discrete distribution.
  101.  
  102. >> P.S.  Please criticize my *definitions* first, before
  103. >> flaming my conclusions!
  104. > I did, and I hope you're satisfied. :-) 
  105.  
  106. Thank you for your interesting comments!
  107.  
  108. --------------------------------------------------------------------
  109. Paul Burchard   <burchard@geom.umn.edu>
  110. ``I'm still learning how to count backwards from infinity...''
  111. --------------------------------------------------------------------
  112.