La entropía, como se explica en este sitio, es una invariante de Lorentz. Pero podemos definirlo como una medida de información oculta a un observador en un sistema físico.
En ese sentido, ¿es la entropía una cantidad relativa que depende de la capacidad de cómputo, medición y almacenamiento del observador?
ET Jaynes está de acuerdo contigo y, afortunadamente, es un buen tipo para tenerlo de tu lado:
De esto vemos que la entropía es un concepto antropomórfico, no sólo en el conocido sentido estadístico de que mide el grado de ignorancia humana en cuanto al microestado. Incluso en el nivel puramente fenomenológico, la entropía es un concepto antropomórfico. Porque es una propiedad, no del sistema físico, sino de los experimentos particulares que tú o yo elegimos realizar en él.
Esta es una cita de su breve artículo `` Gibbs vs Boltzmann Entropies '' (1965), que es un gran artículo sobre el concepto de entropía en general, pero para esta discusión en específico puede consultar la sección VI. La naturaleza "antropomórfica" de la entropía . No intentaré parafrasearlo aquí, porque creo que ya se describió a sí mismo allí de la manera más sucinta y clara posible. (Tenga en cuenta que es sólo una página).
Estaba tratando de encontrar otro artículo de él, pero no pude rastrearlo en este momento. [EDIT: gracias a Nathaniel por encontrarlo ]. Allí dio un buen ejemplo que puedo tratar de parafrasear aquí:
Imagine tener una caja dividida en dos secciones igualmente grandes. Suponga que cada mitad tiene el mismo número de bolas, y todas se ven de un gris apagado para usted, todas rebotando a la misma velocidad. Si ahora elimina la partición, en realidad no verá que suceda mucho. De hecho: si vuelve a insertar la partición, se parece bastante al mismo sistema con el que comenzó. Usted diría: no ha habido aumento de entropía.
Sin embargo, imagina que eres daltónico y un amigo tuyo puede ver que en la situación original, la mitad izquierda de la caja solo tenía bolas azules y la mitad derecha solo bolas rojas. Al quitar el tabique, vería que los colores se mezclaban de manera irreversible. Al volver a insertar la partición, el sistema ciertamente no vuelve a su configuración original. Diría que la entropía ha aumentado. (De hecho, contaría un por cada bola.)
¿Quién tiene razón? ¿Aumentó o no la entropía? Ambos tienen razón. Como bien argumenta Jaynes en la referencia anterior, la entropía no es una propiedad mecánica, es solo una propiedad termodinámica. Y un sistema mecánico dado puede tener muchas descripciones termodinámicas diferentes. Estos dependen de lo que uno pueda --o elija-- medir. De hecho: si vives en un universo donde no hay personas y/o máquinas que puedan distinguir el rojo del azul, realmente no tendría sentido decir que la entropía ha aumentado en el proceso anterior. Además, suponga que es daltónico, llega a la conclusión de que la entropía no aumentó, y luego alguien apareció con una máquina que podía diferenciar el rojo y el azul, luego esta persona podría extraer trabajo de la configuración inicial, que usted el pensamiento tenía la máxima entropía, y por lo tanto concluiría que esta máquina puede extraer trabajo de un sistema de máxima entropía, violando la segunda ley. La conclusión sería simplemente que su suposición era incorrecta: en su cálculo de la entropía, supuso que, hiciera lo que hiciera, no podía diferenciar el rojo y el azul a nivel macroscópico. Esta máquina luego violó su suposición. Por lo tanto, usar la entropía 'correcta' es una cuestión de contexto y depende del tipo de operaciones que pueda realizar. No hay nada problemático con esto. De hecho, es el único enfoque consistente. Esta máquina luego violó su suposición. Por lo tanto, usar la entropía 'correcta' es una cuestión de contexto y depende del tipo de operaciones que pueda realizar. No hay nada problemático con esto. De hecho, es el único enfoque consistente. Esta máquina luego violó su suposición. Por lo tanto, usar la entropía 'correcta' es una cuestión de contexto y depende del tipo de operaciones que pueda realizar. No hay nada problemático con esto. De hecho, es el único enfoque consistente.
Creo que la definición de entropía de Shannon-von Neumann supera esta paradoja antropocéntrica al establecer la cantidad mínima de información que no se puede intercambiar de forma reversible entre dos estados del mismo sistema, sin importar si hay un acuerdo o incluso la presencia de observadores. De tal manera, la entropía es de hecho una característica física y no un artefacto del observador, además establece una dirección única para el flujo de información, por lo tanto, causalidad, flujo de tiempo, etc.
Sé que simplemente estoy colocando postulados uno contra el otro y no estoy en condiciones de establecer o insinuar la corrección de uno u otro, pero prefiero mantener mi comprensión de la física dentro de los límites de la verificación experimental.
limón
verónica
usuario140374
una mente curiosa
limón