Bueno, cero por supuesto. Porque
y para un estado puro da cero entropía.
Pero... todos los estados cuánticos son realmente estados puros, ¿verdad? Un estado mixto simplemente describe nuestra ignorancia sobre un sistema en particular. Entonces, ¿cómo pueden surgir propiedades como la entropía y la temperatura de la ignorancia de la información? Eso no tiene sentido para mí.
Creo que es un error, en este caso, pensar en la entropía como "una descripción de nuestra ignorancia". Más bien, sugeriría que piense en la entropía como una propiedad objetiva bien definida, siempre que especifique qué grados de libertad en el universo están dentro y fuera de su sistema. El contenido de esta declaración no es realmente diferente, pero enfatiza que la entropía es una propiedad objetiva y no dependiente del observador.
Si su lista incluida es "todo" (o al menos todo lo que ha interactuado alguna vez en la historia de su sistema), entonces lo que dijo es cierto: si comenzó con un estado puro, siempre permanecerá así, y no hay No hay mucho que hablar de termodinámica.
La pregunta básica de la termodinámica (y, en términos más generales, de la mecánica estadística) es qué sucede en cualquier otro caso ; por lo general, el caso en el que los grados de libertad que especifica están continuamente acoplados a un sistema abierto de alguna manera. Sorprendentemente, existe una respuesta general a esta pregunta para muchos de estos arreglos.
Más concretamente, en la termodinámica clásica, una de las cosas importantes sobre la entropía y la temperatura es que te dicen cuánto trabajo puedes extraer de un sistema. Entonces, una forma de reformar su pregunta es: "¿Cómo pueden las propiedades como el máximo trabajo extraído surgir de la ignorancia de la información?" Pero es fácil pensar en situaciones cuando este es el caso. Como modelo de juguete, imagina a un marinero tratando de navegar en un velero en medio de una tormenta, con el viento cambiando violenta y rápidamente. Si de alguna manera sabe de antemano exactamente cuándo y cómo cambiará el viento, le resultará mucho más fácil moverse en la dirección que desea.
En definitiva, se está jugando un juego similar a nivel microscópico cuando se habla, por ejemplo, de la máxima eficiencia posible en un motor térmico. La conexión explícita la hace el Principio de Landauer , que es el vínculo directo que estás buscando entre los grados de libertad incluidos (o, si insistes, "conocimiento") y el trabajo. Esta ley se inspiró en el famoso experimento mental Maxwell's Demon , que es un equivalente microscópico de mi marinero que predice el clima.
Hay una diferencia entre la entropía de "grano fino" y la de "grano grueso". Si comenzamos con un estado puro (entropía cero) y lo evolucionamos en el tiempo, la entropía se mantiene en cero por unidad de tiempo de evolución. La entropía de grano fino no cambió.
La entropía de grano grueso es lo que solemos llamar entropía térmica, y es lo que siempre aumenta (o permanece igual) con el tiempo. Considere un sistema con más de un subsistema. La entropía térmica se define como la suma de todas las entropías de los subsistemas. Digamos, por ejemplo, que comenzamos en un estado puro del sistema como un todo, y todos los subsistemas también están en sus propios estados puros (no necesariamente, pero elegimos que así sea en este ejemplo). Posteriormente, los subsistemas desarrollarán correlaciones debido a las interacciones con otros subsistemas. Dado que los subsistemas ahora tienen una entropía (entrelazamiento), la entropía térmica general no será cero.
El problema es que cuando una función de onda colapsa, tiene una aleatoriedad inherente. Dado que la entropía está fundamentalmente relacionada con la información, comenzaré con información para explicar por qué esto es importante.
Si piensas en la información de un estado como lo que se necesita para definir completamente un sistema, sucede algo interesante. Esto se ilustra mejor tomando una foto e intentando comprimirla. Tomemos esta imagen:
Puede pensar en la información necesaria para que definamos completamente un sistema como la cantidad total de detalles que necesitamos para describir el sistema. Para esta imagen, PUEDE representarla como una colección de 2000 x 2000 píxeles, cada uno de los cuales requiere 32 bits de información (RGB+Alfa), o bits de datos
Sin embargo, digamos que comenzamos a comprimirlo (sin pérdidas), de modo que podamos reconstruirlo completamente a partir de cualquier información que nos quede. Podemos ver fácilmente todos los píxeles, pero la sombra que tenemos es totalmente transparente o totalmente opaca, por lo que podemos eliminar 7 bits de información de todos los demás puntos y representar el alfa como 1 o 0. También vemos que cualquier lugar con transparencia total no requieren valores RGB, por lo que podemos eliminar 24 bits de información de cada punto con total transparencia.
Dado que esta imagen era originalmente un svg, resulta que si seguimos siendo más y más inteligentes en la forma en que comprimimos esto, podríamos reducir la imagen básicamente a 2 formas (contorno blanco y forma de pétalo), 1 radio y 4 ángulos aproximadamente el centro para posicionar cada forma, 4 colores base (quinto para el blanco), una ecuación para el cambio de color degradado y una ecuación para el efecto de sombra.
Resulta que este sistema en realidad solo tiene muy poca información. Lo sorprendente es que este es el caso solo porque la imagen que estamos viendo no es muy aleatoria. Se puede representar con pocos bits de información debido a su uniformidad. Pudimos reducir por completo todos los datos redundantes porque esencialmente no eran aleatorios.
Resulta que para una imagen como esta:
Se necesitaría mucha más información para describirlo completamente, ya que es esencialmente aleatorio en todo momento. Realmente no podemos hacer ninguna compresión porque casi toda la información que tenemos no es redundante. La información de un sistema que tiene muchos estados que requieren los bits de información (p. ej., colores, ecuación de forma) que se describirán se reducen a algo aproximadamente como
+ (información aleatoria)
¿Qué demonios tiene esto que ver con la mecánica cuántica y la entropía de un sistema cuántico?
QM es una teoría probabilística en su núcleo. Cuando una función de onda colapsa, lo hace aleatoriamente, por lo que describir completamente el sistema después de un colapso de una función de onda requiere más y más información exacta si desea un modelo exacto de lo que está sucediendo. Esta creciente aleatoriedad resulta ser la Ley de la Entropía en acción. A medida que los sistemas interactúan, los efectos cuánticos aleatorios perturban cada vez más el sistema. Si lo desea, puede decir que proviene de "variables ocultas", pero muchos físicos han trabajado para refutar el punto de vista ortodoxo de las "variables ocultas" (con gran éxito, debo agregar). Una función de onda colapsada es inherentemente aleatoria, por lo que introduce aleatoriedad a medida que el reloj avanza.
Medios relacionados: Lo que NO es aleatorio
Pero... todos los estados cuánticos son realmente estados puros, ¿verdad?
Existe la formulación de matriz de densidad para el sistema de muchos cuerpos mecánicamente cuántica. Lo que sucede en un problema de muchos cuerpos, del orden de 10^23 moléculas por mol, que son los números apropiados para una formulación termodinámica, es que los elementos fuera de la diagonal son tan pequeños que efectivamente son cero y el sistema de muchos cuerpos ha perdido la mecánica cuántica. correlaciones. El conjunto no está en un estado puro en lo que respecta a nuestras precisiones de medición.
Un estado mixto simplemente describe nuestra ignorancia sobre un sistema en particular.
También nuestra incapacidad para medir las correlaciones mecánicas cuánticas debido a su tamaño infinitesimal. Tenga en cuenta que en ciertas condiciones, la superconductividad, por ejemplo, las correlaciones existen fuertemente y los estados puros persisten incluso en la gran cantidad de estados corporales. En el estado de muchos cuerpos donde las cantidades termodinámicas clásicas han sido teóricamente definidas e identificadas con variables medidas, las correlaciones mecánicas cuánticas se pierden.
Entonces, ¿cómo pueden surgir propiedades como la entropía y la temperatura de la ignorancia de la información?
Las cantidades termodinámicas de temperatura, presión, etc. se definen mediante mediciones y experimentos. El modelo/teoría termodinámica se desarrolló para describir las mediciones experimentales y predecir nuevas situaciones. Funciona a la perfección en el marco que se definió, excepto en situaciones en las que la naturaleza cuantificada del marco subyacente creó anomalías, como en la radiación del cuerpo negro . Este último desacuerdo con la elegante teoría de la termodinámica fue una de las razones por las que se postuló la naturaleza cuantizada de la radiación y se añadió a la necesidad de la teoría de la mecánica cuántica.
Cuando se estudia física en diferentes dimensiones y energías, se debe tener en cuenta que todas las teorías son en realidad modelos ajustados a observaciones y datos. Las teorías son apropiadas para el marco en el que fueron desarrolladas y existe una jerarquía que va desde el microcosmos cuantificado de partículas elementales, átomos y moléculas hasta el problema de muchos cuerpos de dimensiones macroscópicas. La termodinámica clásica es una teoría emergente del estado de muchos cuerpos de la naturaleza particulada de la materia.
Un estado mixto simplemente describe nuestra ignorancia sobre un sistema en particular.
No creo que se pueda llamar a nuestra incapacidad para acceder a un estado puro de cualquier sistema una ignorancia sobre un sistema en particular. Porque pienso en el estado puro como una abstracción matemática que solo puede relacionarse con la realidad mediante la aplicación de la regla de Born, que refleja nuestra ignorancia fundamental (similar al numeral de Kant) o, de hecho, una falta de teoría adecuada (variables ocultas), pero en cualquier caso no una ignorancia acerca de un sistema en particular. Las propiedades termodinámicas surgen no del desconocimiento del estado puro, sino del descarte o desconocimiento de la información accesible, lo que se traduce en entropía.
por simetría
usuario65081
Mella
Sofía
joshfísica
hipnótico
Juanrga