Entropía y mecánica clásica

Estaba tratando de entender qué significa la entropía en el contexto de la mecánica clásica, pero desafortunadamente ahora estoy más confundido de lo que estaba al principio. Leyendo, por ejemplo, el artículo de Wikipedia sobre la Segunda Ley de la Termodinámica, o la maravillosa respuesta en esta pregunta ( ¿Es teóricamente imposible un mundo con entropía constante/decreciente? ) No puedo decidir si dicha ley es

1) una ley empírica ("nunca hemos visto que el calor se mueva de un cuerpo frío a uno cálido").

2) una ley estadística blanda ("en un sistema hamiltoniano, si muestras las condiciones iniciales de una distribución que satisface las propiedades X , Y , y Z , y mida la entropía como una función del tiempo usando la fórmula W , entonces la entropía aumentará con el tiempo con alta probabilidad (en el sentido técnico; y en particular, no se garantiza que aumente).

3) una ley dura ("hay una función mi ( q , q ˙ ) sobre el espacio de fase que se garantiza que aumentará monótonamente para cualquier sistema hamiltoniano y cualquier condición inicial").

Mi impresión es que los físicos consideran que la interpretación correcta es (3): que en cualquier sistema se garantiza que aumentará una cantidad llamada "entropía", no solo con una alta probabilidad. Pero no puedo reconciliar esta interpretación con lo que sé sobre la mecánica clásica, en particular, que a) los sistemas hamiltonianos son reversibles en el tiempo, yb) su flujo conserva la forma simpléctica.

En otra pregunta que encontré al buscar en este sitio ( ¿Hay alguna prueba para la segunda ley de la termodinámica? ) Se propusieron varias explicaciones para (a) en diferentes respuestas, incluido que la Segunda ley solo se cumple para sistemas ilimitados, o que la Segunda La ley se basa en la suposición incorrecta de que los estados pasados ​​de un sistema hamiltoniano no están correlacionados (??)

Pero (b) me parece aún más preocupante, ya que la conservación de la forma simpléctica implica, de manera precisa, lo que yo pensaría que es lo opuesto a la segunda ley: si muestras las condiciones iniciales en el espacio de fase y las evolucionas con el tiempo , no se " esparcen", gracias a la simplecticidad del flujo.

¿Lo que da? Ciertamente, es intuitivo que alguna forma de la Segunda Ley se cumple para los sistemas clásicos (si agrego partículas en una caja y les asigno velocidades aleatorias, se dispersarán y no volverán a agruparse, con alta probabilidad), pero ¿cómo se hace? definir rigurosamente la entropía y la segunda ley en este contexto?

Podrías leer los artículos de Jayne, después de la teoría de la información de Shannon.

Respuestas (1)

La segunda ley puede examinarse en varios marcos. Uno de esos marcos es la termodinámica clásica. Y en este marco, la segunda ley es probablemente una ley empírica. (¿Verdad? No soy una autoridad en las teorías de Clausius).

Pero tenemos modelos modernos, más detallados, de sistemas físicos (mecánica estadística, mecánica clásica). En dichos marcos, podemos modelar un sistema como una distribución de probabilidad inicial que evoluciona en el tiempo según un hamiltoniano. Aquí empezamos a encontrarnos con algunos problemas. Se puede demostrar, aplicando el teorema de Liouville , que la entropía de un sistema permanece constante bajo la evolución hamiltoniana. Esto no viola exactamente la segunda ley (que dice que la entropía no disminuye), pero tampoco es realmente satisfactorio. Tenga en cuenta, sin embargo, qué tipo de sistema describe la evolución hamiltoniana. Primero, el sistema debe estar completamente aislado de su entorno (si no, el hamiltoniano incluirá términos con cierta incertidumbre, lo que aumentará la entropía). En segundo lugar, tenemos que saber elnaturaleza exacta del hamiltoniano, y dado que la mayoría de los hamiltonianos dependen de los estados del propio sistema, tenemos que conocer el estado del sistema (con una precisión infinita). Esto es claramente imposible (quizás excepto para los sistemas cuánticos más simples). Por lo tanto, para hamiltonianos realistas, donde la trayectoria del espacio de fase de cualquier punto contiene cierta incertidumbre, la entropía de un sistema aumenta estrictamente (hasta que se alcanza su máximo).

Entonces podrías decir que esto no tiene sentido porque solo tiene que ver con la incapacidad de los observadores de conocer el sistema, y ​​quieres saber qué hace la entropía intrínseca del sistema. A lo que respondería que no existe la entropía intrínseca, y que la entropía de un sistema siempre se expresa en términos de correlaciones entre sistemas físicos (como un sistema y un observador). Pero tenga en cuenta que no hay consenso en el campo sobre tales ideas.

Espero que esto haya agregado algo de claridad a tu pregunta.