¿Existe una equivalencia entre la entropía de Boltzmann y la entropía de Shannon?

Ya analicé otras publicaciones sobre este tema, pero ninguna de ellas parece responder completamente a mi interrogación.

[ esta interrogación es para poner en relación con esta pregunta ¿Existe una equivalencia entre información, energía y materia? ]

de hecho según Bekenstein

la entropía termodinámica y la entropía de Shannon son conceptualmente equivalentes.

el número de arreglos que cuenta la entropía de Boltzmann refleja la cantidad de información de Shannon que se necesitaría para implementar cualquier arreglo en particular...

...de materia y energía

con

para algunos, la entropía termodinámica puede verse como un caso específico de la entropía de Shannon. En resumen, la entropía termodinámica es una entropía de Shannon, pero no necesariamente al revés.

para otros, la entropía de Shannon es una cantidad matemática sobre ""sistemas abstractos"" y no tiene nada que ver con la entropía de la termodinámica.

Entonces, ¿hay una respuesta consensuada a esa pregunta?

¿Existe una equivalencia entre la entropía de Boltzmann y la entropía de Shannon?

Para que quede claro, está preguntando si puede obtener S = k B en ( W ) de S = k pag i en ( pag i ) ¿correcto?
@Jepsilon,... de hecho, la entropía de Boltzmann es un caso especial de la entropía de Gibbs-Shannon, que es la fórmula de la entropía de Shannon aplicada a los estados microscópicos de un sistema físico, por lo que usted es uno de los que piensa que la entropía termodinámica puede verse como una instancia específica de la entropía de Shannon...?
Hay muchos tipos de entropía termodinámica, principalmente microcanónica (Boltzmann), canónica (Gibbs) y grancanónica (creo que Landau fue responsable de esta). Todo lo cual se puede obtener de la fórmula de entropía de Shannon estableciendo las restricciones apropiadas. Entonces, en cierto modo, sí, la entropía de Shannon es un concepto más general. También se generaliza a cantidades como Cross-entropy y KL-Divergence utilizadas para cuantificar similitudes entre distribuciones.
Sin embargo, como dije en mi respuesta, la entropía de Boltzmann es un caso especial bastante importante porque da un límite superior agudo en S
me atrevo a pedirle que eche un vistazo a esta pregunta que está relacionada con la que se hace aquí y dado su punto de vista sobre la consecuencia de la respuesta que ha dado aquí,... ... [https: //physics.stackexchange .com/questions/408257/existe-una-equivalencia-entre-información-energía-y-materia]
En caso de que aún no lo hayas visto: physics.stackexchange.com/questions/263197/…
@ Rococo, gracias por el enlace... si lo he entendido bien, su punto de vista es que la entropía termodinámica se puede considerar como una aplicación particular de la entropía de la información. Este punto de vista se encuentra con el punto de vista de Jepsilon...
@alamata sí, creo que es correcto. También está relacionado con la formulación de la termodinámica de ET Jaynes, que se analiza, por ejemplo, aquí: physics.stackexchange.com/questions/26821/…

Respuestas (1)

La fórmula de entropía de Boltzmann se puede derivar de la fórmula de entropía de Shannon cuando todos los estados son igualmente probables.

di que tienes W microestados equiprobables con probabilidad pag i = 1 / W . Entonces:

S = k pag i en pag i = k ( en W ) / W = k en W

Otra forma en la que se puede obtener este resultado es maximizando S dado que pag i = 1 usando multiplicadores de Lagrange:

máximo pag i ( S ) = k pag i en pag i λ ( pag i 1 )

Agregar más restricciones dará como resultado una distribución de entropía más baja (como la entropía canónica al agregar la restricción de energía y la grancanónica al agregar restricciones de energía y partículas).

Como nota al margen, también se puede demostrar que la entropía de Boltzmann es un límite superior a la entropía que un sistema puede tener para un número fijo de microestados, lo que significa:

S k en W

Esto también se puede interpretar como que la distribución uniforme es la distribución que proporciona la mayor entropía (o la menor información, si quieres que alguien tenga la amabilidad de probarme esto aquí https://math.stackexchange.com/questions/2748388/proving -que-la-entropía-de-shannon-es-máxima-para-la-distribución-uniforme-usando-conve ).