¿Cómo llegar a la definición termodinámica de entropía?

Mi pregunta es, ¿cómo decimos eso?

d S = d q T   ?
¿Cómo relacionamos el calor y la temperatura con la entropía? ¿Por qué la temperatura está en el denominador? ¿Podemos reemplazar el calor por trabajo? ¿Cómo mide esta fracción la "aleatoriedad" del sistema? ¿Puedo definir la entropía de la siguiente manera? "La entropía es un número que está asociado con cada estado macro de un sistema y es más grande para los estados macro que tienen numerosos estados micro (mayor probabilidad) y más pequeño para los estados macro que tienen menos estados micro (probabilidad más baja)". Esto es lo que he podido entender después de leer algunos textos, si esto es correcto, ¿cómo asociar aún más este número con el calor y la temperatura de un sistema? He visto muchos artículos y respuestas, pero no tengo una intuición clara para este término. Por favor edúcame.

Tu pregunta no está clara. Parte de esto puede ser respondido por la historia de la termodinámica clásica (Clausius), parte pregunta sobre la conexión con la física estadística. Y debajo está la pregunta de qué temperatura es.
Se supone que todos los microestados son igualmente probables. Tal vez esto sea útil: physics.stackexchange.com/questions/302632/… (mi respuesta está en la parte inferior).
Oh dios, se suponía que eran estados macro, he agregado algunos textos, por favor, eche un vistazo.

Respuestas (2)

Me parece que la pregunta en el título es muy clara, refiriéndose a la definición termodinámica de entropía. Desafortunadamente, la siguiente elaboración sobre la pregunta básica introduce conceptos (aleatoriedad, microestados, probabilidad) que son externos al ámbito de la termodinámica y pertenecen a la mecánica estadística. A diferencia de las ideas transmitidas a veces a nivel introductorio, la mecánica estadística tiene como objetivo reproducir el comportamiento termodinámico de los sistemas en equilibrio, pero no es una generalización ni una justificación de la termodinámica, aunque puede proporcionar una aclaración para muchos conceptos termodinámicos.

Llegando a la fórmula que conecta el diferencial de entropía ( d S ), intercambio de calor ( d q ) y temperatura absoluta ( T ), la primera observación es que en general no es cierto que d S = d q / T . La igualdad se mantiene y se convierte en la definición termodinámica de d S , solo para un intercambio de calor reversible (vamos a indicarlo como d q r mi v ).

Desde un punto de vista puramente termodinámico, el único punto que requiere justificación es mostrar que

d q r mi v T
en realidad define la diferencial de una función de estado. La forma clásica de obtener tal resultado es a través de un análisis cuidadoso del ciclo de Carnot.

El razonamiento es el siguiente (no daré todos los detalles, pero solo recordaré los puntos clave de una derivación que se puede encontrar en todos los buenos libros de texto de termodinámica).

Del análisis de la eficiencia del ciclo de Carnot, se encuentra que es posible asociar a cualquier escala de temperatura arbitraria θ una temperatura termodinámica T = ϕ ( θ ) por la igualdad:

q 1 q 2 = T 1 T 2 ,
dónde q 1 y q 2 son el calor intercambiado entre el sistema y el medio ambiente en las dos isotermas de las que está hecho un ciclo de Carnot.

Como consecuencia de la definición de la temperatura absoluta, aplicando la fórmula anterior a un ciclo de Carnot reversible muy pequeño, se obtiene:

d q 1 T 1 = d q 2 T 2
y descomponiendo un ciclo genérico en una secuencia de isotermas y transformaciones adiabáticas, se llega a
d q r mi v T = 0
para cualquier ciclo en el espacio termodinámico. Como consecuencia,
A B d q r mi v T
Se puede escribir como S B S A , que es función del estado B , una vez que se toma como referencia el estado A.

Dado que la eficiencia más alta posible de un ciclo de Carnot se puede obtener solo en correspondencia con un ciclo reversible, en el caso no reversible

d q T < 0
lo que implica
S B S A > A B d q T
es decir, la entropía de un sistema aislado ( d q = 0 ) solo puede aumentar si el sistema se hace evolucionar desde un estado A a un estado B eliminando alguna restricción interna.

En toda la historia anterior, no hay rastro de "número de estados", probabilidad, aleatoriedad o similares.

La probabilidad y el número de estados entran en juego, y tienen un sentido operativo preciso, sólo con la Mecánica Estadística. Pero, a nivel de mecánica estadística de equilibrio, no es fácil definir el calor intercambiado. Lo que se suele hacer es mostrar que una o más fórmulas de la mecánica estadística se comportan como la entropía termodinámica y por tanto pueden identificarse con ella.

Una palabra final sobre la aleatoriedad. Incluso a nivel de Mecánica Estadística no es posible establecer un vínculo entre la aleatoriedad en el espacio de configuración y la entropía. La razón principal es que la existencia de tal vínculo no siempre es cierta.

¿Cómo relacionamos el calor y la temperatura con la entropía? ¿Por qué la temperatura está en el denominador?

Estas dos primeras preguntas están íntimamente ligadas. En primer lugar, ayuda recordar por qué fue necesario encontrar una nueva propiedad llamada entropía. El siguiente ejemplo simple mostrará una razón y cómo la ecuación que proporcionó para la definición macroscópica de entropía la aborda.

Sean dos cuerpos, A y B, que son reservorios térmicos en contacto entre sí (por ejemplo, el océano y la atmósfera), de modo que una transferencia de calor d q entre ellos no altera la temperatura general de ninguno de los dos. Sabemos que el calor se define como la transferencia de energía debida únicamente a la diferencia de temperatura. Entonces, el calor no se transferirá entre A y B a menos que sus temperaturas sean diferentes. Sea la temperatura del cuerpo A mayor que la del cuerpo B. La experiencia ha demostrado que el calor sólo se transferirá naturalmente de A a B. Sea una cantidad de calor, d q , transferencia de A a B. Dado que la cantidad de A es igual a la de B, y no hay trabajo involucrado, se cumple la primera ley (conservación de la energía).

Pero supongamos que nos dicen que d q se transfiere del cuerpo más frío B al más caliente A. La primera ley se cumple, pero la experiencia nos dice que esto nunca sucede. La primera ley por sí sola es insuficiente para descartar esta posibilidad. Sabemos que es la relación entre las temperaturas de los dos cuerpos lo que dicta la dirección que puede tomar este proceso. Entonces necesitamos incluir la temperatura para definir una nueva propiedad (entropía) que descarte el segundo escenario. La definición de entropía hace esto.

d S = d q r mi v T

Además estipulamos que la ley que rige esta nueva propiedad dice que el cambio total en la entropía de un sistema más su entorno (cambio para el universo) para cualquier proceso debe ser igual o mayor que cero:

d S t o t = d S s y s + d S s tu r r 0

Aplicamos esta nueva ley a los cuerpos A y B, designando arbitrariamente al cuerpo A como el sistema y al cuerpo B como el entorno observando que el calor d q transferido fuera del cuerpo A es negativo y al cuerpo B positivo. Aplicando la segunda ley:

d S t o t = d q T A + + d q T B

De la ecuación, observamos que para todo T A > T B , d S t o t > 0 . Además, observamos que a medida que las dos temperaturas se acercan más y más, d S t o t 0 . Ambos satisfacen la desigualdad de la segunda ley.

Ahora deje que el calor se transfiera del cuerpo más frío B al cuerpo más caliente A). Obtenemos:

d S t o t = + d q T A + d q T B

Que nos da, para todos T A > T B , d S t o t < 0 , en violación de la segunda ley.

En el límite, cuando la diferencia de temperatura tiende a cero, la desigualdad tiende a cero y se dice que el proceso es reversible. Sin embargo, dado que siempre es necesaria una diferencia de temperatura finita para que se produzca la transferencia de calor, todos los procesos reales son necesariamente irreversibles.

¿Podemos reemplazar el calor por trabajo?

Si te refieres a reemplazar q con W en la definición, que yo sepa, la respuesta es no. Pero es una muy buena pregunta porque hay procesos que no implican transferencia de calor entre un sistema y su entorno (p. ej., procesos de trabajo adiabático). Desde q es cero entre el sistema y su entorno, se podría concluir que no hay aumento de entropía. Pero los procesos adiabáticos pueden ser irreversibles. La definición de entropía puede explicar la irreversibilidad, pero para hacerlo debemos aplicarla a la transferencia de calor que ocurre internamente al sistema.

La fricción es un ejemplo de una fuente de irreversibilidad. Considere un gas ideal en equilibrio térmico y mecánico en un cilindro equipado con un pistón. La fricción entre las superficies del pistón y el cilindro es fricción seca. El movimiento entre el pistón y el cilindro eleva la temperatura de sus superficies como cuando frotamos vigorosamente nuestras manos para calentarlas en un día frío. Las temperaturas de estas superficies ahora son mayores que la temperatura de la capa de gas junto a ellas. El calor se transfiere de las superficies a la capa de gas. La capa de gas transfiere calor a las capas internas del gas y así sucesivamente. Ya hemos mostrado cómo la transferencia de calor a través de una diferencia de temperatura finita aumenta la entropía.

También hay fricción viscosa. Para que un proceso sea reversible, debe llevarse a cabo muy lentamente (cuasi-estáticamente) para minimizar los diferenciales de temperatura y presión en el gas. Si el proceso se lleva a cabo demasiado rápido, se producen diferenciales de presión que provocan un movimiento relativo entre las capas del gas que da como resultado una fricción viscosa. Una vez más, se producen diferenciales de temperatura y se producen transferencias de calor con el gas.

¿Puedo definir la entropía de la siguiente manera? "La entropía es un número que está asociado con cada estado macro de un sistema y es mayor para los estados macro que tienen numerosos estados micro (mayor probabilidad) y más pequeño para los estados macro que tienen menos estados micro (probabilidad menor)"…” si esto es correcto , ¿cómo asociar aún más este número con el calor y la temperatura de un sistema?

Su definición entra en el ámbito de la termodinámica estadística. No soy lo suficientemente versado como para evaluar su definición, pero puedo intentar proporcionar una asociación entre las probabilidades asociadas con los microestados y la definición macroscópica de temperatura que se aplica a la definición de entropía de la termodinámica clásica.

La termodinámica clásica básicamente define la temperatura (llamada “temperatura cinética”) como la energía cinética de traslación aleatoria promedio de los átomos/moléculas de una sustancia. Tomemos nuestros dos cuerpos A y B, pero supongamos ahora que no son depósitos térmicos (es decir, las temperaturas pueden cambiar). Simplemente dejarlos ser sólidos en contacto térmico. Macroscópicamente sabemos que el calor fluirá naturalmente de A a B porque y no al revés, ya que nunca lo hemos observado. ¿Es imposible? Parece de esa manera. Pero tal vez sea posible pero altamente improbable. Para considerar esto, observamos lo que sucede a nivel molecular.

Aunque la energía cinética de traslación promedio de todas las moléculas es mayor para A que para B, las energías de las moléculas individuales de ambos cuerpos se distribuyen en un rango de energías (distribución de Boltzmann). Entonces, en el cuerpo frío B podemos encontrar algunas moléculas con mayor energía cinética que algunas moléculas en el cuerpo A. Si una de las moléculas B de alta energía choca con una de las moléculas A de baja energía, la molécula A puede ganar energía cinética y la B molécula pierde una cantidad igual de energía cinética (supone colisiones perfectamente elásticas). La molécula A aumenta en la energía cinética promedio de las moléculas en A. Sin embargo, para que aumente la temperatura macroscópica del cuerpo A más caliente, las moléculas B de alta energía deben chocar selectivamente con las moléculas A de baja energía. No es imposible,

Lo siento si esto fue demasiado largo. Estoy seguro de que no responde a todas sus preguntas, pero tal vez ayude a comprender mejor lo que tiene y leerá sobre el tema.

"La termodinámica clásica básicamente define la temperatura (llamada "temperatura cinética") como la energía cinética de traslación aleatoria promedio de los átomos/moléculas de una sustancia". no es lo que dice la termodinámica clásica sobre la temperatura. la definición termodinámica es mi / S o alguna cantidad relacionada. Solo a través de la teoría cinética de los gases se puede justificar la conexión entre una cantidad macroscópica ( T ) y una microscópica (la energía cinética de las moléculas).
@GiorgioP No pretendía dar una definición formal. Tal vez debería haber dicho "descrito" en lugar de "definido". Creo que solo a través de la teoría cinética de los gases podemos justificar una conexión entre la temperatura y la energía interna, porque la temperatura no mide los modos rotacional y vibratorio de KE ni tampoco mide la PE asociada a las fuerzas intermoleculares.
La temperatura también mide los modos de rotación y vibración de KE, siempre que no estén congelados como consecuencia de un kT demasiado pequeño en comparación con el espacio entre los niveles de energía.
@GiorgioP Estoy de acuerdo en que los modos de rotación y vibración de KE contribuyen a la temperatura al chocar con las moléculas en la traducción, lo que se suma a su KE de traducción. Pero sigo creyendo que es la KE traslacional promedio de la colección de moléculas lo que mide directamente la temperatura. Si quieres seguir discutiendo esto, hagámoslo en CHAT.