home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #27 / NN_1992_27.iso / spool / bionet / infothe / 987 < prev    next >
Encoding:
Internet Message Format  |  1992-11-17  |  3.4 KB

  1. Path: sparky!uunet!biosci!buc.edu.au!kjm
  2. From: kjm@buc.edu.au (Kevin Moore)
  3. Newsgroups: bionet.info-theory
  4. Subject: Re:  A Mathematical Fireside Chat at 300K about 0K
  5. Message-ID: <9211180412.AA11952@eureka.buc.edu.au>
  6. Date: 18 Nov 92 20:12:34 GMT
  7. Sender: daemon@net.bio.net
  8. Distribution: bionet
  9. Lines: 103
  10.  
  11.  
  12. In article <9211171601.AA15615@net.bio.net>
  13. burchard@geom.umn.edu (Paul Burchard) writes
  14.  
  15. > The other thing that proved to be kindling was my definition
  16. > of temperature as average energy per state.  Here the disagreement
  17. > is more interesting:
  18. > >> Note that T also shows up as the exponential decay rate of p(E).  
  19. > >> This suggests an alternative definition of temperature, which 
  20. > >> allows the possibility of "negative absolute temperature".  We 
  21. > >> ignore this definition.
  22. > > 
  23. > > Why? That T corresponds to the integrating factor in
  24. > > dQ=dS/T. It therefore corresponds to the thermodynamic
  25. > > definition. 
  26. > That's an interesting point.  Could you explain this a bit further?
  27. > The correspondence isn't immediately obvious to me...
  28.  
  29. Okay... When you maximise information entropy with an energy constraint,
  30.  
  31. <E> = \sum_i p_i E_i
  32.  
  33. in addition to normalisation, you naturally obtain the Canonical
  34. distribution,
  35.  
  36. p_i = 1/Z exp(\beta E_i),
  37.  
  38. where \beta is the Lagrange multiplier corresponding to the energy
  39. constraint, and Z is the partition function. We can write the expected
  40. energy as
  41.         
  42. <E> = -\frac{\partial}{\partial\beta} \log Z
  43.  
  44. The information entropy of this distribution is
  45.  
  46. S_I = \log Z(\beta) + \beta <E>
  47.  
  48. Now the E_i may depend on extrnally measurable parameters, such as volume,
  49. magnetisation, stress, etc. So for each parameter q_r, we have a
  50. generalised force,
  51.  
  52. F_r = <\frac{\partial E}{\partial q_r}
  53.  
  54.     = \sum_i p_i \frac{\partial E}{\partial q_r}
  55.  
  56.     = \frac{-1}{\beta}\frac{\partial}{\partial q_r} \log Z
  57.  
  58. (Almost there, guys) Now if we write the differential of the information
  59. entropy,
  60.  
  61. dS_I = d\log Z(\beta,q_r) + \beta d<E> + <E> d\beta
  62.  
  63.      = \frac{\partial\log Z}{\partial\beta} d\beta
  64.         +\sum_r \frac{\partial\log Z}{\partial q_r} dq_r 
  65.         +\beta d<E> + <E> d\beta
  66.  
  67.      = -\beta\sum_r F_r dq_r + \beta d<E>
  68.  
  69. and rearrange, we get:
  70.  
  71. d<E> = \frac{dS_I}{\beta} + \sum_r F_r dq_r
  72.  
  73.      = \frac{dS_I}{\beta} + dW
  74.  
  75. We are now in a position to identify this as the first law, and the first
  76. term as heat,
  77.  
  78. dQ = TdS,
  79.  
  80. so \beta = 1/kT identifies with the thermodynamic temperature, and S=kS_I
  81. identifies with the thermodynamic entropy.
  82.  
  83. > > As I said earlier, the average energy definition is a BAD
  84. > > one. In fact it only works for classical particles, with
  85. > > no exchange interaction. All the particles in the ground
  86. > > state is 0K. ($\beta=1/kT$ is infinite) 
  87. > My definition was E per state, not per particle.
  88.  
  89. Point taken, but it still doesn't work, and the counterexample is still the
  90. Fermi-Dirac case. 
  91. > In any case, the REAL test of which temperature definition is
  92. > correct must be settled by checking which one gives the correct
  93. > direction of heat flow when two systems of different temperature
  94. > are "weakly coupled".  I would think that the average energy per
  95. > state would equalize between the two---are you claiming that the
  96. > exponential decay rates of the energy distribution equalize
  97. > instead, in the case when these two definitions disagree?
  98.  
  99. Given the correspondence with the Thermodynamic temperature just
  100. demonstrated, yes.
  101.  
  102. Kevin Moore,
  103.  
  104. kjm@eureka.buc.edu.au
  105.  
  106.  
  107. Typographcal errors notwithstanding, of course.
  108.