Existencia de temperaturas negativas y la definición de entropía

La forma en que pueden ser posibles las temperaturas negativas se ha tratado anteriormente en StackExchange ( de hecho, varias veces ), pero a la luz de una discusión académica reciente, la mayoría de estas respuestas parecen ser posiblemente incorrectas o incompletas. La literatura a la que me refiero es Dunkel & Hilbert, Nature Physics 10 , 67 (2014) arXiv:1304.2066 , donde, según tengo entendido, se muestra que las temperaturas negativas son un artefacto de elegir una definición incorrecta de entropía. El artículo de Wikipedia sobre el tema también se ha modificado para reflejar esto.

Esto fue cuestionado más tarde por científicos igualmente conocidos, en arXiv: 1403.4299 donde, entre otras cosas, se señaló que este argumento en realidad tiene décadas de antigüedad (citando a Berdichevsky et al. , Phys. Rev. A 43 , 2050 (1991) ). Los autores originales rápidamente contrarrestaron los argumentos presentados en el comentario, por lo que parece ser un tratamiento riguroso del asunto, arXiv:1403.6058 . El primer comentario de arXiv (arXiv: 1403.4299) se ha actualizado desde entonces y todavía dice que "Obviamente, quedan puntos de desacuerdo graves".

Entonces, lo que pregunto es si alguien en StackExchange podría arrojar algo de luz sobre el asunto de cómo puede haber un desacuerdo sobre algo que parece ser un hecho matemático. También me interesaría saber si cambiar la definición de entropía de la de Boltzmann a la de Gibbs podría cambiar potencialmente cualquier otro resultado. ¿Podría, por ejemplo , verse afectado el algoritmo de Wang-Landau al ver que usa la densidad de estados y que nunca puede simular sistemas infinitos (aunque según tengo entendido, incluso en el contexto actual con escala finita debería poder obtener resultados consistentes )?

EDITAR: Una actualización sobre el asunto para aquellos a quienes les pueda importar. arXiv:1407.4127 cuestionó el documento original y argumentó que deberían existir temperaturas negativas. Basaron sus afirmaciones en sus experimentos anteriores en Science 339 , 52 (2013). Se ofreció una respuesta en arXiv:1408.5392 . Más físicos siguen uniéndose, argumentando a favor de arXiv:1410.4619 y en contra de arXiv:1411.2425 temperaturas negativas.

Respuestas (4)

Entonces, lo que pregunto es si alguien en StackExchange podría arrojar algo de luz sobre el asunto de cómo puede haber un desacuerdo sobre algo que parece ser un hecho matemático.

El principal desacuerdo parece ser sobre qué definición de la palabra "entropía" en el contexto de la física estadística es "correcta". La definición es un acuerdo sobre la elección que parece preferible pero que los hechos no exigen. Diferentes personas consideran diferentes cosas más útiles, por lo que no debería sorprender que se vean obligados a utilizar diferentes definiciones en su trabajo. No debería haber objeciones siempre que esto conduzca a algún conocimiento nuevo que sea, en cierto sentido, independiente de la elección realizada.

Lo sorprendente es que los autores del artículo afirman que su definición es la definición de entropía y proclaman su superioridad.

No encontré ningún argumento convincente en su artículo para convencerme de que hay algún problema con la fórmula estándar. S = k B Iniciar sesión ω ( tu ) para la entropía y que su fórmula S = k B Iniciar sesión Ω ( tu ) debería reemplazarlo.

Las dos fórmulas conducen a casi el mismo valor de entropía para los sistemas macroscópicos, para los cuales se ideó originalmente el concepto de entropía. Esto se debe a que su diferencia es insignificante debido a la gran magnitud del número relevante de estados. En consecuencia, las reglas estándar que usan la entropía conducen a las mismas conclusiones para tales sistemas, ya sea que se usen S o S .

Para sistemas "extraños" con densidad de estados constante o decreciente ω ( tu ) como una partícula en una caja 1D o un oscilador armónico 1D, su definición conduce a un valor de entropía muy diferente para una energía dada tu y también a un valor diferente de temperatura, ya que tu / S | V = constante tu / S | V = constante . Los autores dicen que la positividad de la temperatura así calculada es una virtud de su entropía S .

Pero estos extraños sistemas no pueden estar en equilibrio termodinámico con los sistemas ordinarios cuando tienen el mismo tu / S | V = constante . ¿Por qué? Cuando un sistema ordinario se conecta a un sistema extraño, el resultado más probable es que el sistema extraño le dé tanta energía al sistema normal hasta que su energía disminuya a un valor en el que su densidad de estados sea igual a la densidad de estados del sistema normal ( o no queda energía transferible). Según el principio de máxima probabilidad, la energía media tu 1 del primer sistema en equilibrio es tal que el número de estados accesibles para el sistema combinado es máximo. Denotemos la energía total del primer sistema tu 1 , del segundo sistema tu 2 y del sistema aislado combinado tu (constante). Si la densidad de estados es diferenciable, nos lleva a la condición

d d tu 1 ( ω 1 ( tu 1 ) ω 2 ( tu tu 1 ) Δ tu 2 ) = 0
ω 1 ( tu 1 ) ω 2 ( tu 2 ) = ω 2 ( tu 2 ) ω 1 ( tu 1 )
ω 1 ( tu 1 ) ω 1 ( tu 1 ) = ω 2 ( tu 2 ) ω 2 ( tu 2 )

y esto implica la condición

tu 1 S 1 = tu 2 S 2       ( 1 )
dónde S 1 = k B Iniciar sesión ω 1 ( tu 1 ) y S 2 = k B Iniciar sesión ω 2 ( tu 2 ) . El principio de máxima probabilidad no conduce a la condición

tu 1 S 1 = tu 2 S 2 .       ( 2 )
dónde S 1 = k B Iniciar sesión Ω 1 ( tu 1 ) y S 2 = k B Iniciar sesión Ω 2 ( tu 2 ) . Si (1) se cumple, en la mayoría de los casos (2) no lo hará. Dado que en equilibrio las temperaturas termodinámicas son las mismas, la definición estadística de temperatura está mejor dada por tu S en lugar de por tu S .

Cuando el sistema extraño está aislado y tiene una energía tal que la densidad de estados disminuye con la energía, la temperatura así obtenida es negativa. Esto está bien, ya que atribuirle cualquier valor positivo de temperatura sería incorrecto: el sistema no estará en equilibrio con los sistemas ordinarios (aquellos con densidad de estados que aumentan con la energía) de temperatura positiva.

Tenemos una definición perfectamente inequívoca de temperatura para conjuntos canónicos, y esta temperatura puede ser negativa en sistemas de energía limitada. Este tipo de temperatura negativa es indiscutible, y algunos argumentarían que se ha realizado en experimentos de inversión de espín.

El problema es que hay dos definiciones decentes pero imperfectas para la entropía de un conjunto microcanónico . Algunos* creen que este conjunto es útil para describir algunas situaciones físicas.

Una definición (entropía de superficie/entropía de Boltzmann) es más popular y puede elogiarse por su intuición. La otra definición (entropía de volumen/entropía de Gibbs/entropía de Hertz) es menos popular y menos intuitiva, sin embargo, matemáticamente hablando, sus propiedades son más convenientes y termodinámicamente más precisa en algunos aspectos. Cada uno produce una definición distinta de temperatura cuando se usa en la fórmula T 1 = d S / d mi . ¿Cuál es el correcto? La entropía de superficie da temperaturas negativas en muchos sistemas extraños (y no solo en sistemas de energía limitada), mientras que la entropía de volumen nunca da temperaturas negativas.

Este argumento de superficie/volumen tiene más de 100 años y nunca se resolverá. Esto se debe a que ninguna de las dos definiciones es perfecta, por lo que es más una cuestión de gusto la que utilice. Gibbs en sus Principios elementales de mecánica estadística de 1902 discutió en profundidad los méritos y problemas de ambos enfoques. No estoy seguro de si alguna literatura desde entonces ha agregado algo de valor además de la repetición.

Esencialmente, el problema es este: los conjuntos que no están distribuidos canónicamente no son tan simples como para pretender que son termodinámicos. Entonces, realmente no deberíamos estar tratando de nombrar una temperatura. Bueno, podemos seguir adelante y hacerlo, y de hecho podemos nombrar "temperaturas" que funcionan de alguna manera. Sin embargo, estas "temperaturas" nunca estarán a la altura de todas las propiedades que esperamos de la termodinámica. Como ejemplo concreto, intuitivamente esperamos que si conectamos térmicamente dos sistemas de igual temperatura, nada debería cambiar. ¡Pero ni la superficie ni la "temperatura" del volumen tienen esta propiedad!

*: En mi opinión, es cuestionable que el conjunto microcanónico describa alguna situación física. A menudo se dice que los sistemas aislados se describen mediante conjuntos microcanónicos, sin embargo, estar aislado no es suficiente. Los conjuntos microcanónicos también deben tener una energía total que se conozca exactamente , y este nunca es el caso en ningún experimento. Más bien, los extraños sistemas aislados que se discuten a menudo (como los experimentos de inversión de espín) no son canónicos ni microcanónicos, sino una especie de bestia complicada intermedia.

"¡Pero ni la 'temperatura' de la superficie ni la del volumen tienen esta propiedad!" Sé que la temperatura del volumen no tiene esta propiedad. Pero, ¿cuál es el problema con la temperatura de la superficie? La regla de máxima probabilidad (lo más probable es que la energía se distribuya de tal manera que la multiplicidad del supersistema sea la mayor posible) conduce a la igualdad de las temperaturas "superficiales".
Tome un sistema clásico de átomos de N en el conjunto microcanónico. ¿No deberíamos poder definir siempre la temperatura mediante el teorema de equipartición o utilizando la distribución de velocidades de Maxwell-Boltzmann? ¿Concuerdan aquí las definiciones de entropía, y es solo en algunos sistemas más extraños que podrían no hacerlo? @JánLalinský en su respuesta discutió sistemas extraños, pero no me queda claro si sus comentarios se aplican de manera más general, o si solo se debe tener cuidado con estos sistemas extraños: es decir, si las dos definiciones pueden estar en desacuerdo incluso en sistemas con temperaturas estrictamente positivas o no .
amlrg-ok para un sistema clásico, pero el teorema de Equipartición no siempre se cumple para los sistemas cuánticos (cuando kT es menor que Δ mi ).
Nanite, ¿por qué dices que un experimento de inversión de espín no puede ser descrito por un conjunto microcanónico ni canónico?

He contribuido a este número con este arXiv:1411.2425 y trabajos anteriores. Hago hincapié en que la entropía de Gibbs no está "definida" sino más bien "construida".

Se construye sobre la expresión de las fuerzas termodinámicas en el conjunto microcanónico, y se construye de tal manera que las reproduce siempre y con exactitud. La construcción es realmente única. En consecuencia, si se emplea cualquier otra expresión, por ejemplo, la de Boltzmann, se calculan mal esas fuerzas termodinámicas, por ejemplo, la magnetización. El error en el que podría incurrir con la entropía de Boltzmann a veces puede ser muy grande, consulte arXiv:1411.2425. Entonces, en general, la expresión de Boltzmann no coincide con la entropía termodinámica. En consecuencia, su derivada, generalmente no coincide con la temperatura inversa.

Eso es todo.

Simplemente, las cantidades termodinámicas utilizadas en el artículo original no eran adecuadas para ese problema.

Ellos en particular calcularon T = tu S dónde tu es la energía interna y S la entropía

Sin embargo, se ha utilizado una definición incorrecta de entropía. Los matemáticos han demostrado que el uso de esa entropía específica era incorrecto y que usar la entropía correcta conduciría a una temperatura positiva finita.

Es mi opinión que en estos días a la gente realmente le gusta usar terminología engañosa solo porque se ve bien y porque ayuda a vender su periódico.

Además, la temperatura negativa es intuitivamente incorrecta, ya que debería estar relacionado con las excitaciones térmicas de un sistema. Entonces, es mi opinión que esos autores fracasaron no solo con las matemáticas sino también como físicos, ya que usaron una definición matemática incorrecta y publicaron resultados que no tienen sentido físico.

Debo decir que siento lo mismo con respecto a ese artículo sobre el monopolo de Dirac.

PD

En apoyo de la temperatura negativa, eche un vistazo a estos argumentos eurísticos de Immanuel Bloch. Admite que es solo una elección conveniente pero, en cualquier caso, todavía no tiene sentido para mí.

¡Gracias por la respuesta! ¿Podría tal vez, para que quede claro, escribir a quién oa qué se refiere cuando escribe "esa entropía", "artículo original" y "esos autores", etc.? Creo que sé lo que quieres decir, pero por si acaso. ¿También tendrías una referencia a las demostraciones de los matemáticos?
Ciertamente, no es teóricamente imposible que la energía de un sistema esté limitada desde arriba, pero que la entropía no esté limitada.
Los matemáticos a los que me refiero son [Dunkel y Hilbert] ( arxiv.org/abs/1304.2066 ); Este artículo es bastante accesible (las matemáticas no son realmente difíciles) y tiene referencias a los artículos que creo que están equivocados y explica el uso de diff. Entropías y temp. Para resumir, citándolos, "dichos hallazgos pueden atribuirse al uso de una definición de entropía popular pero inconsistente, que viola las relaciones termodinámicas fundamentales y no produce resultados sensatos para sistemas cuánticos y clásicos analíticamente manejables". Manera educada de decir 'volver a la escuela secundaria'.
¿Crees que lo que está escrito en el comentario es una tontería? “¿Qué vamos a hacer con el hecho de que la entropía de Gibbs satisface ciertos teoremas matemáticos exactos, como lo aducen Dunkel y Hilbert? inequivalencia de conjuntos, y la dificultad de encontrar una definición de entropía adecuada. [...]
[...] Para sistemas grandes, los teoremas se pueden usar para probar que la entropía de Boltzmann adquiere ciertas características deseadas. Pero si los teoremas exactos conducen a conclusiones sin sentido (por ejemplo, que la temperatura diverge exponencialmente con el tamaño del sistema), entonces lo que nos están diciendo es que la interpretación es incorrecta. Se considera que la posición original se vuelve insostenible. Desde nuestro punto de vista, las temperaturas negativas son inevitables en sistemas con espectros de energía limitados".
Creo que su comentario es una forma de tratar de justificar las tonterías que publicaron y tratar de salvarles la cara (mi opinión, por supuesto). Debo admitir que no soy un experto en su campo, por lo que al menos pueden haber hecho un trabajo interesante, pero no hay duda de que escribieron cosas engañosas/no entendieron lo que estaba pasando. Es un poco como si estuviera acuñando un experimento para encontrar la aceleración a de un objeto de masa m cuando es empujado con una fuerza F y luego digo "ah, por cierto, acabamos de demostrar que la ley F = metro a 2 no aguanta". Entonces dicen "ciertas características deseadas".. ¿deseado por quién? [...]
[...] ¿quién desearía complicarse la vida introduciendo nociones engañosas? Especialmente cuando existe una teoría que explica las cosas correctamente (¡usar la definición correcta de entropía funciona!). Creo que cometieron un error (con bastante arrogancia), y ahora están tratando de salvar la cara. Veo que incluso en la oración "¿Qué vamos a hacer con el hecho de que la entropía de Gibbs satisface ciertos teoremas matemáticos exactos, como lo aduce Dunkel and Hilbert": Dunkel & Hilbert no demostró que la entropía de Gibbs satisfaga ciertos teoremas, pero que su artículo estaba archivado con errores básicos.