¿Es lo mismo la entropía de la información que la entropía termodinámica?

Contexto

En uno de sus libros más populares, ¡Guardias! ¡Guardias! , Terry Pratchett hace un chiste sobre la entropía:

Conocimiento es igual a Poder, que es igual a Energía, que es igual a Masa

Pratchett es un comediante de fantasía y una de cada tres frases de su libro es una broma, por lo tanto, no hay una buena razón para creerlo. Pratchett usa esa locura para inventar que una enorme biblioteca tiene un tremendo empuje gravitatorio.

La pregunta

Trabajo con computadoras y principalmente con encriptación . Mis compañeros de trabajo creen en la declaración de Terry Pratchett debido a la entropía . Por otro lado, creo que es incorrecto ya que la entropía de la información es una entropía diferente a la que se usa en termodinámica.

¿Estoy en lo correcto? Y si es así, ¿por qué usar el mismo nombre ( entropía ) para significar dos cosas diferentes?

Además, ¿cuál sería una buena manera de explicar que estas dos "entropías" son cosas diferentes para los no científicos (es decir, personas sin experiencia en química o física)?

El experimento mental Demon de Maxwell demuestra que estás equivocado. Como lo muestra Landauer, el hecho de que los cálculos reversibles y las mediciones sin interacción sean posibles significa que puede reducir la entropía de un sistema termodinámico como el precio de aumentar la entropía de información de la memoria de la computadora en al menos la misma cantidad.
Tratar de identificar exactamente de qué manera falla una afirmación que nunca tuvo la intención de ser cierta en el sentido científico es un ejercicio infructuoso. Vaya y disfrute de los maravillosos libros de Pratchett en lugar de debatir la verdad científica de declaraciones no científicas.
von Neumann a Shannon: "Deberías llamarlo entropía, por dos razones. En primer lugar, tu función de incertidumbre se ha utilizado en mecánica estadística con ese nombre, por lo que ya tiene un nombre. En segundo lugar, y más importante, nadie sabe qué es realmente la entropía, así que en un debate siempre tendrás la ventaja".
@lemon: Tendrás la ventaja hasta que alguien diga d S = d q r mi v / T y entonces entiendes bien la termodinámica o te quedas sin argumentos.
La diferencia depende de si tiene conocimiento de los estados cuánticos preparados de un sistema o no. Para la termodinámica clásica, no tiene tal conocimiento, por lo que la entropía es "térmica". Si tiene conocimiento de microestados o estados cuánticos, entonces es entropía de información o entropía de entrelazamiento. Al final, la entropía térmica es entropía de información, y todo esto es, en última instancia, entropía de entrelazamiento.
@CountIblis: Sin embargo, la memoria en esos sistemas también es un sistema termodinámico, por lo que en realidad solo está construyendo una máquina Rube-Goldberg termodinámica / computacional.
@CountIblis: leer el experimento mental Demon de Maxwell me dio una nueva comprensión de la entropía, gracias. Ese experimento es exactamente lo que necesitaba. Por otro lado, tengo la impresión de haber abierto una caja de pandora haciendo esta pregunta aquí. Ahora tengo mucha curiosidad sobre cuáles son los pensamientos de diferentes físicos aquí sobre la información frente a la entropía térmica.
@grochmal Es una pregunta interesante, sin duda. Uno puede poner la entropía termodinámica primero y llamar a la entropía de la información un subconjunto, ya que siempre se almacena en las posiciones de los átomos. O bien, se puede anteponer la entropía de la información y decir que las posiciones atómicas son solo un tipo de información. Soy neutral, pero las personas con más experiencia en física prefieren lo primero, mientras que aquellos con más experiencia en informática prefieren lo segundo.
Como viste en el gran hilo de comentarios, se vuelve bastante partidista, creo que porque hay un punto de orgullo para todo el campo en él, es decir, la gente lo usa para decir "todo CS/física es realmente solo física/CS".
Desde un punto de vista neutral, creo que no hay gran cosa. Dejar que la analogía vaya de cualquier manera te da más formas de pensar sobre las cosas, es un ganar-ganar.
"Mis compañeros de trabajo creen en la declaración de Terry Pratchett debido a la entropía". Esto es desconcertante. ¿Podría explicar cómo el concepto de entropía (cualquiera que sea) insinúa la validez de la declaración citada?
@ Ján: eso no es para nada extraño. Como von Neumann le dijo a Shannon cuando Shannon le preguntó cómo llamar a esta cantidad : "Debería llamarla entropía, por dos razones. En primer lugar, su función de incertidumbre se ha utilizado en mecánica estadística con ese nombre. En segundo lugar, y más importante , nadie sabe qué es realmente la entropía, así que en un debate siempre tendrás la ventaja". Entonces, con la entropía, nunca puedes perder una discusión.
El conocimiento es poder, el tiempo es dinero. Poder = Trabajo/tiempo, por lo tanto Conocimiento = Trabajo/dinero. ¡Cuanto más trabajes y menos te paguen, más aprenderás!

Respuestas (4)

Entonces, la cita de Pratchett parece ser sobre energía, más que sobre entropía. Supuse que podría afirmar lo contrario si asume que "la entropía es conocimiento", pero creo que eso es exactamente al revés: creo que el conocimiento es un caso especial de baja entropía. Pero tu pregunta sigue siendo interesante.

la entropía S en termodinámica está relacionado con el número de estados indistinguibles que puede ocupar un sistema. Si todos los estados indistinguibles son igualmente probables, el número de "microestados" asociados con un sistema es Ω = Exp ( S / k ) , donde la constante k 25 metro mi V / 300 k está relacionado con la cantidad de energía intercambiada por los sistemas termodinámicos a diferentes temperaturas.

El ejemplo canónico es un frasco de monedas de un centavo. Supongamos que dejo caer 100 monedas al suelo. Hay 100 formas en las que puedo tener uno cara arriba y el resto cruz; existen 100 99 / 2 formas de tener dos cabezas; existen 10 99 98 / 6 formas de tener tres cabezas; hay alrededor de 10 28 maneras de tener cuarenta cabezas, y 10 29 maneras de tener cincuenta cabezas. Si se le cae un tarro de monedas de un centavo, no las encontrará con un 3 % de cara, como tampoco lo va a alcanzar un rayo mientras se está repartiendo una escalera real: hay demasiadas otras alternativas.

La conexión con la termodinámica surge cuando no todos mis microestados tienen la misma energía, por lo que mi sistema puede intercambiar energía con su entorno al tener transiciones. Por ejemplo, suponga que mis 100 centavos no están en el piso de mi cocina, pero están en el piso de mi camioneta con la llanta desequilibrada. La vibración significa que cada centavo tiene la posibilidad de volcarse, lo que tenderá a impulsar la distribución hacia 50-50. Pero si hay alguna otra interacción que haga que el cara a cara sea más probable que la cruz, entonces no me detendré en 50-50. Tal vez tengo un pasajero obsesivo que voltea todos los centavos con cola hacia arriba. Si el temblor y el volteo aleatorio son lo suficientemente lentos como para que pueda voltearlos a todos, eso es efectivamente "temperatura cero"; si la sacudida y el volteo aleatorio son tan vigorosos que un centavo generalmente se voltea solo antes de corregir el siguiente, eso es "temperatura infinita". (Esto es en realidad parte dela definición de temperatura .)

La entropía de Boltzmann que usé arriba,

S B = k B en Ω ,
es exactamente igual a la entropía de Shannon,
S S = k S en Ω ,
excepto que la constante de Shannon es k S = 1 en 2 b i t , de modo que un sistema con diez bits de entropía de información puede estar en cualquiera de Ω = 2 10 estados

Esta es una afirmación con consecuencias físicas. Supongamos que compro una tarjeta SD de dos terabytes ( aparentemente el estándar admite esto ) y la lleno con cuarenta horas de video de mis conejillos de indias convirtiendo el heno en caca. Al reducir el número de posibles estados de la tarjeta SD de Ω = 2 × 2 40 × 8 a uno, la definición de Boltzmann me dice que he reducido la entropía termodinámica de la tarjeta por Δ S = 2.6 metro mi V / k . Esa reducción de entropía debe equilibrarse con un aumento de entropía igual o mayor en otras partes del universo, y si hago esto a temperatura ambiente, ese aumento de entropía debe ir acompañado de un flujo de calor de Δ q = T Δ S = 0.79 mi V = 10 19 j o tu yo mi .

Y aquí nos encontramos con pruebas prácticas y experimentales de una diferencia entre la información y la entropía termodinámica. El consumo de energía mientras se escribe una tarjeta SD es de milivatios o vatios, y transferir mi película de conejillo de Indias de cuarenta horas no será una operación breve --- ese extra 10 19 j , suficiente energía para impulsar una sola transición atómica infrarroja, que tengo que pagar para saber que cada bit en la tarjeta SD no es nada en comparación con los otros costos para ejecutar el dispositivo.

La entropía de la información es parte, pero no casi toda, de la entropía termodinámica total de un sistema. La entropía termodinámica incluye información de estado sobre cada átomo de cada transistor que compone cada bit, y en cualquier sistema biestable habrá muchas, muchas configuraciones microscópicas que corresponden a "encendido" y muchas, muchas configuraciones microscópicas distintas que corresponden a "apagado". ."


CuriousOne pregunta,

¿Cómo es que la entropía de Shannon del texto de un folio de Shakespeare no cambia con la temperatura?

Esto se debe a que cualquier medio de almacenamiento de información efectivo debe operar a temperatura cero efectiva; de lo contrario, los bits se volcarán y la información se destruirá. Por ejemplo, tengo las Obras completas de Shakespeare que pesa aproximadamente 1 kg de papel y tiene una entropía de información de unos pocos megabytes.

Esto significa que cuando se imprimió el libro hubo un gasto energético extra mínimo de 10 25 j = 1 m mi V asociado con poner esas palabras en la página en ese orden en lugar de cualquier otro. Saber lo que hay en el libro reducesu entropía. Saber si el libro son sonetos primero o obras de teatro primero reduce aún más su entropía. Saber que "Viaje/No se quede/Encuéntrenme todos antes del amanecer" está en la página 158 reduce aún más su entropía, porque si su cerebro está en el estado de baja entropía en el que conoce el Sueño de una noche de verano, sabe que debe hacerlo. comienza en la página 140 o 150 más o menos. Y yo contándote cada uno de estos hechos y concomitantemente reduciendo tu entropía estaba asociado con una energía extra de alguna fracción de un nano-eV, totalmente perdida en mi metabolismo cerebral, la energía mecánica de mis dedos, la energía de operación de mi computadora, la energía de operación de mi conexión a Internet al disco en el centro de datos de StackExchange donde se almacena esta respuesta, y así sucesivamente.

Si elevo la temperatura de esta Obra Completa de 300 k a 301 K, elevo su entropía en Δ S = Δ q / T = 1 k j / k , que corresponde a muchos yottabytes de información; sin embargo, el libro está ingeniosamente arreglado para que la información que está desorganizada no afecte la disposición de las palabras en las páginas. Sin embargo, si trato de almacenar un megajulio adicional de energía en este libro, en algún momento de su camino hacia una temperatura de 1300 kelvin se transformará en un montón de cenizas. Las cenizas son de alta entropía: es imposible distinguir las cenizas de "Love's Labors Lost" de las cenizas de "Timon of Athens".

La entropía de la información, que se eliminó de un sistema donde se almacena la información, es un pequeño subconjunto de la entropía termodinámica, y solo puede almacenar información de manera confiable en partes de un sistema que están efectivamente a temperatura cero.


Un gas ideal monoatómico de, digamos, átomos de argón también se puede dividir en subsistemas donde la entropía depende o no de la temperatura. Los átomos de argón tienen al menos tres formas independientes de almacenar energía: movimiento de traslación, excitaciones electrónicas y excitaciones nucleares.

Suponga que tiene un mol de átomos de argón a temperatura ambiente. La entropía de traslación viene dada por la ecuación de Sackur-Tetrode y depende de la temperatura. Sin embargo, el factor de Boltzmann para el primer estado excitado a 11 eV es

Exp 11 mi V k 300 k = 10 201
y por tanto, el número de átomos de argón en los primeros (o superiores) estados excitados es exactamente cero y hay cero entropía en el sector de excitación electrónica. La entropía de excitación electrónica permanece exactamente cero hasta que los factores de Boltzmann para todos los estados excitados suman 10 24 , de modo que hay en promedio un átomo excitado; eso sucede en algún lugar alrededor de la temperatura
T = 11 mi V k en 10 24 = 2500 k .
Entonces, a medida que aumenta la temperatura de su mol de argón de 300 K a 500 K, la cantidad de átomos excitados en su mol cambia de exactamente cero a exactamente cero, que es una configuración de entropía cero, independiente de la temperatura, en una forma puramente termodinámica. proceso.

Asimismo, incluso a decenas de miles de kelvin, la entropía almacenada en las excitaciones nucleares es cero, porque la probabilidad de encontrar un núcleo en el primer estado excitado alrededor de 2 MeV es muchos órdenes de magnitud menor que el número de átomos en su muestra.

Asimismo, la entropía termodinámica de la información en mis Obras completas de Shakespeare es, si no nula, muy baja: hay un pequeño número de configuraciones de texto que corresponden a Obras completas de Shakespeare más que a El señor de los anillos o a Ulises. o un Don Quijote del mismo material con masa equivalente. La entropía de la información ("Las Obras completas de Shakespeare llenan unos pocos megabytes") me dice la entropía termodinámica mínima que tuvo que eliminarse del sistema para organizarlo en las Obras completas de Shakespeare, y un costo de energía asociado con la transferencia de esa entropía a otra parte; esos costos son pequeños en comparación con los intercambios totales de energía y entropía involucrados en la impresión de un libro.

Siempre que la temperatura de mi libro se mantenga sustancialmente por debajo de 506 kelvin , la probabilidad de que cualquier letra del libro cambie espontáneamente para parecerse a otra letra o a una mancha ilegible es cero, y los cambios de temperatura son reversibles .

Este argumento sugiere, por cierto, que si desea almacenar información en un sistema de mecánica cuántica, debe almacenarla en el estado fundamental, que el sistema ocupará a temperatura cero; por lo tanto, debe encontrar un sistema que tenga múltiples estados fundamentales degenerados. Un ferroimán tiene un estado fundamental degenerado: los átomos en el imán quieren alinearse con sus vecinos, pero la dirección en la que eligen alinearse no está restringida. Una vez que un ferromagnético ha "elegido" una orientación, tal vez con la ayuda de un campo de alineación externo, esa dirección es estable siempre que la temperatura esté sustancialmente por debajo de la temperatura de Curie , es decir, cambios modestos en la temperatura no causan entropía. fluctuaciones crecientes en la orientación del imán.Es posible que esté familiarizado con los mecanismos de almacenamiento de información que funcionan según este principio.

¿Cómo es que la entropía de Shannon del texto de un folio de Shakespeare no cambia con la temperatura?
@CuriousOne Lo hará si cambias la temperatura lo suficiente; ver editar.
Lo siento, pero eso es una completa tontería. La entropía de Shannon no incluye los términos físicos que puedes encontrar en la termodinámica. Simplemente, por definición, no es sensible a la temperatura. Si cambia la definición a "Entropía de Shannon = Entropía termodinámica", pierde toda su utilidad, sin mencionar que invita a la pregunta: ¿por qué está cambiando el nombre de algo que ya tiene un nombre?
Creo que lo que dije fue que la entropía de Shannon es un pequeño subconjunto de la entropía de la información, y di un ejemplo cuantitativo de un cambio de temperatura que resulta en un aumento irreversible en la entropía de la información de un sistema de almacenamiento. Parece que le molesta que pueda cambiar la temperatura de un libro de, digamos, 250 K a 300 K sin cambiar su entropía de información; pero ese cambio particular es reversible , y los procesos reversibles en termodinámica son, por definición, isoentrópicos.
Lo que me molesta es que la gente parece no poder entender definiciones simples. La entropía de Shannon estaba y sigue estando claramente definida sobre secuencias de símbolos. Es una medida abstracta del contenido de información de, por ejemplo, un documento y, como tal, extremadamente útil. La entropía termodinámica es una medida física del movimiento de sistemas dinámicos homogéneos. Puede cambiar la temperatura de un libro y eso cambiará la entropía del papel, pero no cambiará ni un poco la entropía de Shannon del texto en el libro. Realmente no es tan difícil de entender. No hay información en sistemas homogéneos, por cierto.
La entropía de @CuriousOne Shannon es una medida abstracta del contenido de la información con consecuencias físicas. En particular, la entropía de Shannon está cuantificada, y su intuición sobre la entropía de la termodinámica continua puede no aplicarse a sistemas con grados de libertad cuantificados. He editado en otro ejemplo. Estoy aprendiendo bastante al abordar sus comentarios, así que gracias.
No hay resúmenes en física. Todo en física son cantidades medidas de sistemas reales . La entropía de Shannon es una cantidad matemática en sistemas abstractos. Tiene mucho sentido, pero simplemente no es lo mismo que lo que llamamos entropía en termodinámica. Las cosas a las que se refiere no son las mismas.
Y te he dicho cómo medirlo (y reconozco que es difícil).
No hay nada difícil en calcular la entropía de Shannon. Aquí está el código en Python: pythonfiddle.com/shannon-entropy-calculation , stackoverflow.com/questions/15450192/… (no hay garantías de que funcione). En cuanto a la entropía de la termodinámica... eso requiere una medición de calor calorimétrica seria.
La respuesta anterior es una explicación de 'alta temperatura' de la entropía, en el sentido de que es detallada y tiene muchos ejemplos vagamente relacionados.

Formalmente, las dos entropías son la misma cosa. La entropía de Gibbs, en termodinámica, es

S = k B pags i en pags i
mientras que la entropía de Shannon de la teoría de la información es
H = pags i Iniciar sesión 2 pags i .
Estos son iguales hasta algunos factores numéricos. Dado un conjunto estadístico, puede calcular su entropía (termodinámica) usando la entropía de Shannon y luego multiplicándola por constantes.


Sin embargo, hay un sentido en el que tienes razón. A menudo, cuando las personas hablan de la entropía de Shannon, solo la usan para contar cosas que intuitivamente percibimos como información. Por ejemplo, se podría decir que la entropía de un transistor, cambiada a 'encendido' o 'apagado' con la misma probabilidad, es de 1 bit.

Pero la entropía termodinámica del transistor es miles, si no millones de veces mayor, porque lo cuenta todo, es decir, las configuraciones de todos los átomos que componen el transistor. (Si quiere explicárselo a sus colegas programadores, diga que no cuentan si cada átomo individual está "encendido" o "apagado").

En general, la cantidad de información "intuitiva" (como bits o palabras en un libro) es una fracción totalmente insignificante de la entropía total. La entropía termodinámica de una biblioteca es aproximadamente la misma que la de un almacén de libros en blanco.

Los comentarios no son para una discusión extensa; esta conversación se ha movido a chat .
Llévenlo a esa sala de chat que @Manishearth configuró o publiquen otra respuesta, amigos.
Técnicamente, no se puede comparar la magnitud de las entropías termodinámicas y de información de un transistor de manera directa a menos que se especifiquen los macroestados del transitor. Sin embargo, estoy de acuerdo en que quizás no se puedan medir más que unas pocas cantidades básicas para un transistor (tal vez resistencia, inductancia, etc.), dejando el espacio de posibles microestados aún increíblemente grande. Por lo tanto, a todos los efectos, podemos decir que la entropía termodinámica es más alta que la entropía de la información.
La entropía es una cantidad antropomórfica, definida en términos de los observables macroscópicos que elegimos para especificar el sistema. Ver un artículo clásico de ET Jaynes

Para ser honesto, creo que esta pregunta no está realmente resuelta, o al menos que todavía no hay un consenso en la comunidad científica sobre cuál es la respuesta.

Mi comprensión de la relación es, creo, ligeramente diferente a la de knzhou, rob o CuriousOne. Tengo entendido que la entropía termodinámica puede considerarse como una aplicación particular de la entropía de la información. En particular, se pueden aplicar los principios de información y entropía informacional para preguntar cuánto se sabe sobre el estado de un sistema cuántico, y bajo ciertas condiciones parece recuperarse la entropía termodinámica de Boltzmann.

Como ejemplo concreto, un experimento reciente relacionado con esta pregunta (1) estudia la "entropía de entrelazamiento" de un sistema cuántico en interacción, que es una aplicación de la entropía informativa a un estado cuántico. En las circunstancias apropiadas (observando la matriz de densidad de una sola partícula de un estado cuántico termalizado), se muestra que esta entropía informativa es idéntica a la entropía termodinámica de Boltzmann.

Desde este punto de vista, la termodinámica es "solo" una aplicación particular de principios informativos. Por supuesto, también se pueden aplicar principios informativos a sistemas completamente diferentes, como libros y comunicaciones por radio, etc. Como resultado, las entropías termodinámica e informativa no son lo mismo, sino dos aplicaciones particulares del mismo principio general.

Sin embargo, esta opinión no es compartida por todos, y aunque esta correspondencia parece funcionar en algunos casos como el experimento anterior, queda por explicar en un entorno más general.

Dos preguntas algo relacionadas que te pueden resultar interesantes:

Conversión espontánea de calor en trabajo a temperaturas negativas

¿Cuáles son los fenómenos responsables del aumento irreversible de la entropía?


Apéndice: Jerarquía de entropía

Aquí está la jerarquía de entropías que estoy reclamando aquí (ignorando constantes como k B ):

  1. Entropía de Shannon: S Shannon = i pags i Iniciar sesión pags i . Describe, aproximadamente, cuánto se sabe sobre el estado de algún sistema, con i siendo los estados posibles. Este sistema podría ser, por ejemplo, una cadena de bits binarios.

  2. Aplicando esto a un estado cuántico desconocido, se obtiene la entropía de Gibbs: S Gibbs = i pags i Iniciar sesión pags i , donde el i son ahora específicamente los posibles estados cuánticos del sistema. Para que esta expresión tenga sentido físico, i deben ser los estados propios del sistema en una base en la que la matriz de densidad es diagonal*. Con esta estipulación, S Gibbs es idéntica a la entropía de Von Neumann de un estado cuántico: S VN = tr ( ρ Iniciar sesión ρ ) , con ρ la matriz de densidad.

  3. La entropía de entrelazamiento es simplemente una aplicación de S VN a un subconjunto espacial particular de un sistema (generalmente aislado): S mi mi , A = tr ( ρ A Iniciar sesión ρ A ) , dónde ρ A es la matriz de densidad resultante de la traza parcial sobre la matriz de densidad de un gran sistema, conservando solo algún subsistema local. En otras palabras, es la entropía de una parte particular de un sistema mayor.

  4. La afirmación altamente no trivial hecha en (1) (y en otros lugares) es que para un sistema termalizado, la S mi mi , A de un pequeño subsistema local ρ A es equivalente a la entropía termodinámica de Boltzmann, definida como: S Boltz = i ( pags i , el Iniciar sesión pags i , el ) , con pags i , el = mi mi i / k B T i mi mi i / k B T , i como los posibles estados de ρ A , y k B T elegido para que el sistema tenga la energía promedio correcta. Esta afirmación se conoce, por cierto, como la "hipótesis de termalización del estado propio".

*No hay nada demasiado misterioso acerca de este requisito: es simplemente porque para que la entropía tenga algunas propiedades "agradables" como la aditividad, el estado i debe estar sin correlación.

Hasta ahora ha habido bastantes respuestas perspicaces sobre la entropía mecánica estadística, pero hasta ahora la única mención de la entropía termodinámica la ha hecho CuriousOne en los comentarios, así que pensé que sería útil dar un breve recordatorio general sobre la sutil diferencia. entre la noción de entropía en termodinámica y las fórmulas que surgen de la mecánica estadística y la teoría de la codificación.

Un enfoque para comprender la entropía termodinámica es a través de las restricciones fundamentales (o tecnológicas) sobre la máxima eficiencia alcanzable de los motores térmicos. El Volumen 1 de las conferencias de Feynman tiene una sección sobre termodinámica que describe de manera elocuente cómo la eficiencia de Carnot proporciona una escala de temperatura universal. T (hasta una elección arbitraria de unidades), de modo que la cantidad d q T es la diferencial de una función de estado S eso se llama entropía. Dado que se define esencialmente a través del rendimiento de los motores térmicos, la entropía termodinámica solo es sensible a las características de un sistema que puede absorber calor y relajarse de manera que permita extraer trabajo.

En este sentido, la entropía teórica de la información es una medida de las características que conoces*, mientras que la entropía termodinámica se puede considerar como una medida de las características a pequeña escala que influyen colectivamente en los sistemas a escalas más grandes.

*La entropía teórica de la información y la entropía mecánica estadística son (en sí mismas) esencialmente solo medidas de volumen para un espacio de resultados posibles.

Le agradezco que mencione la distinción entre las nociones de entropía estadísticas y termodinámicas. Sin embargo, este punto tiene una respuesta natural: la conexión entre estos se explora bastante a fondo en los libros de texto estándar. Sigo a Kittel y Kroemer, por ejemplo, al definir la entropía termodinámica a través de la mecánica estadística (como S GRAMO i b b s o similar), y definiendo la temperatura como 1 / T = S / tu (equivalente a la definición dada en mi respuesta), y usándolos como base para la termodinámica estándar.
Desafortunadamente no tengo Kittel y Kroemer. Sin embargo, si definen la entropía termodinámica de la manera que usted describe, entonces diría que la conexión entre la termodinámica y la mecánica estadística no se explora a fondo en ese libro. Sin embargo, Reif y Schroeder (así como Feynman vol. 1) tienen cuidado de establecer la termodinámica sobre una base conceptual sólida, independientemente de la mecánica estadística. A mis oídos, definiendo la entropía termodinámica de S GRAMO i b b s suena circular y disminuye la brillantez de la ecuación de Boltzmann.
Bueno, donde ves un razonamiento circular, veo un ejemplo particularmente elegante de reducción a principios generales. Pero tendré que mirar como esos tratamientos.