home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #27 / NN_1992_27.iso / spool / bionet / infothe / 977 < prev    next >
Encoding:
Internet Message Format  |  1992-11-15  |  4.7 KB

  1. Path: sparky!uunet!biosci!buc.edu.au!kjm
  2. From: kjm@buc.edu.au (Kevin Moore)
  3. Newsgroups: bionet.info-theory
  4. Subject: Re:  A Mathematical Fireside Chat at 300K about 0K
  5. Message-ID: <9211152208.AA19972@eureka.buc.edu.au>
  6. Date: 16 Nov 92 14:08:15 GMT
  7. Sender: daemon@net.bio.net
  8. Distribution: bionet
  9. Lines: 100
  10.  
  11.  
  12. In article <9211140822.AA01880@net.bio.net>
  13. burchard@horizon.math.utah.edu (Paul Burchard) writes:
  14.  
  15. > The energy of the system will be distributed among its states in some way.
  16. > Let p(E) be the distribution (where E = energy per state).  The simplest
  17. > measure that can be derived from this energy distribution is the
  18. > *average* energy per state---this we call the "absolute temperature" T
  19. > (working in suitable units). 
  20.  
  21. WRONG! Consider the Fermi-Dirac distrubution to see the error with this.
  22.  
  23. > Now if all we know about a system is its temperature T, what can we
  24. > say about p(E)?  Well, not forgetting our other assumption, that E>0,
  25. > we can use information theory to make the *least presumptive* guess
  26. > for p(E).  We do this by maximizing the information-theoretic *entropy*
  27. > of the probability distribution, constrained by our two assumptions.
  28. > In this way we find that our best guess is the exponential distribution
  29. > p(E) = (1/T) e^{-E/T}. 
  30.  
  31. That's p(E) = (1/Z) e^{-E/kT} where Z is a normalisation constant,
  32. otherwise known as the partition function (or functional, in the
  33. non-equilibrium case).
  34.  
  35.              An ideal system that actually conforms to this
  36. > generic energy distribution we will call a "heat bath".
  37. > Note that T also shows up as the exponential decay rate of p(E).  This
  38. > suggests an alternative definition of temperature, which allows the
  39. > possibility of "negative absolute temperature".  We ignore this definition.
  40.  
  41. Why? That T corresponds to the integrating factor in dQ=dS/T. It therefore
  42. corresponds to the thermodynamic definition.
  43.  
  44.     [deletia]
  45.  
  46. > Our conclusion?  Temperature implies an upper bound on (physical)
  47. > entropy, and under physically correct assumptions, this upper bound
  48. > goes to zero as the temperature goes to zero.  Therefore,
  49. > zero temperature implies zero entropy.
  50.  
  51. I'll go along with this.
  52.  
  53. > But...you may be troubled by the following elements of the argument:
  54. >     1. Saying that E is always positive is tantamount to making
  55. >         E an absolute, rather than relative, quantity.
  56. >         This flies in the face of classical mechanics.
  57.  
  58. E does not have to be positive for statistical mechanics to work. You
  59. simply get different values for Z with different zeroes of potential
  60. energy.
  61.  
  62. >     2. In order to make sense of the limiting maximum entropy
  63. >         as T goes to zero, we had to assume discreteness
  64. >         of energy levels.  Classically, it's trouble again.
  65. > In fact, I'm skeptical that we can make classical sense of entropy at
  66. > 0K.  The entropy bound's divergence to minus infinity reflects the
  67. > infinite information difference between a continuous and a discrete
  68. > probability distribution.  It might still be possible to renormalize
  69. > these calculations somehow, but that's a slippery business in itself.
  70.  
  71. Yep. You use $\int \rho\log\frac{\rho}{m} d\tau$, where $m$ is the Lebesgue
  72. measure on phase space $\tau$. The $m$ is important, because it makes the
  73. information entropy invariant under choice of parametrisation of phase
  74. space. Klir, the fuzzy set person, (unforgivably) sets up a straw man by
  75. leaving out the measure when criticising the maximum entropy procedure.
  76.  
  77.  
  78. > Quantum physics addresses both problems.  First of all, it gives us
  79. > discrete energy levels, at least for finite systems.  Actually, all
  80. > we really need is that there be a finite energy gap at E=0.  This is
  81. > a very mild assumption quantum mechanically.
  82.  
  83. > More substantially, QM typically gives us an absolute zero energy level.
  84. > This zero level *need not* be the ground state of the system; it is
  85. > sensible (as sensible as QFT gets :-) to ask if the ground state energy
  86. > vanishes.  The most familiar example of this is the quantum harmonic
  87. > oscillator, where the ground state energy is  hw/2  (h = Plank's h-bar;
  88. > w = angular frequency).  Notice that if the ground state energy does not
  89. > vanish, then the system cannot get to 0K, purely by definition.
  90.  
  91. As I said earlier, the average energy definition is a BAD one. In fact it
  92. only works for classical particles, with no exchange interaction. All the
  93. particles in the ground state is 0K. ($\beta=1/kT$ is infinite) The quantum
  94. mechanical reason for the third law is the energy-time uncertainty
  95. relation. In order to establish 0K, you have to constrain the energy state
  96. for an infinite time.
  97.  
  98. > So now I'll go warm my hands by the resulting flamefest!!!
  99. > I vote for 0 entropy at 0K!!!
  100.  
  101. > P.S.  Please criticize my *definitions* first, before flaming
  102. > my conclusions!
  103.  
  104. I did, and I hope you're satisfied. :-)
  105.  
  106. Cheers,
  107. Kevin.        
  108.  
  109. kjm@eureka.buc.edu.au
  110.