¿Cómo cuantificamos este tipo de información en Mecánica Cuántica?

Sea dado un sistema cuántico con espacio de Hilbert H . Supongamos que está descrito por el estado cuántico ρ , es decir, una matriz de densidad. Podemos definir la entropía de Von-Neumman como

S ( ρ ) = Tr ρ registro ρ .

Se puede demostrar que S ( ρ ) = 0 si y solo si ρ es pura, es decir, si existe | ψ H tal que

ρ = | ψ ψ | .

A continuación, suponga que | ψ es un estado puro. Obviamente, codifica alguna información sobre el sistema en cuestión.

Por ejemplo, suponga que el sistema es una partícula no relativista de espín 1/2 de masa metro . En ese caso, un conjunto completo de estados es | pag , σ los estados propios de impulso y espín. Entonces

  • Si | ψ = | pag , σ tenemos la información de que el impulso es pag , el giro es σ y la masa es metro .

  • Si | ψ = C + | pag , 1 / 2 + C | pag , 1 / 2 tenemos información de que el impulso es pag , esa masa es metro y tenemos algo de información sobre el espín, aunque tiene incertidumbre asociada .

  • Si | ψ = F ( pag ) | pag , σ d 3 pag tenemos el mismo razonamiento anterior. Tenemos información de que el giro es σ , la masa es metro y tenemos algo de información sobre el impulso .

Ahora si S ( ρ ) cuantifica la información, necesariamente tendríamos S ( | ψ ψ | ) = 0 . Todavía me parece mal decir que "la información sobre este estado es cero". Como dije, en todos estos ejemplos anteriores tenemos al menos algo de información sobre el sistema.

Para empezar en todos los estados conocemos la masa con certeza. Esto ya es información.

En segundo lugar, si pag , σ son descritas por la función de onda del espinor

Ψ ( pag ) = ( ψ + ( pag ) ψ ( pag ) ) ,

tenemos algo de información sobre pag y σ contenida en Ψ ( pag ) eso debe ser cuantificado con alguna medida de incertidumbre.

En particular Ψ ( pag ) i = d ( pag q ) d i j debería significar "información máxima": conocemos el impulso y el giro . Y deberíamos tener "información mínima" - un estado con máxima incertidumbre de estas variables .

Así que por todo lo anterior parece obvio que los estados puros tienen información asociada . La información parece estar asociada a observables. Y finalmente, parece que esta información intuitivamente debería ser cuantificada por una medida que va desde "información mínima/incertidumbre máxima" y "información máxima/incertidumbre mínima".

Además, la entropía de Von-Neumman parece no captar esto, ya que dice que tal estado tiene cero información asociada, lo que parece no ser el caso.

Entonces, ¿cómo cuantificamos al final esta información contenida en estado puro?

Creo que es una buena pregunta, pero es posible que deba reorganizar partes: verificar entropía = 0 es en realidad negentropía máxima: es lo que mide la información.
Desde el punto de vista de la teoría de la información, información significa incertidumbre. Entonces, para un estado puro, la entropía de von Neumann = 0 significa que no hay incertidumbre sobre su estado. Pero esto no significa que no podamos extraer información sobre su estado. Al igual que en un sistema clásico, un bit con un valor fijo de 1 no tiene información ya que no hay incertidumbre al respecto. Pero aún puede argumentar que tenemos la información de que el bit está en el estado 1. Debemos tener cuidado al usar la palabra "información".
Entonces, al final, cuando uno habla de información, no está hablando de "información que tenemos actualmente", sino de "información que está disponible para ser encontrada mediante experimentos". ¿Para que cuando lo sepamos todo, no se pueda aprender más y la información sea cero?

Respuestas (1)

Los estados puros llevan de hecho la máxima información . De hecho, son máximas con respecto a una ordenación parcial. en los estados definidos de la siguiente manera.

Dejar ρ , ω ser dos estados. Nosotros decimos eso ρ ω si existe 0 λ 1 tal que ρ λ ω , dónde es la relación mayor o igual entre operadores (es decir, A 0 si y si ψ , A ψ 0 para todos ψ ).

Ahora, ω es un estado extremo o puro si y solo si es maximal wrt , en el sentido de que ω ϖ si y si ϖ = λ ω , para algunos 0 λ 1 .

No es difícil entender por esta definición por qué los estados puros transportan información máxima sobre el sistema, entre los estados. De hecho, deja ρ ser un estado mixto. Entonces existen dos estados ϖ 1 y ϖ 2 , y 0 < λ < 1 tal que

ρ = λ ϖ 1 + ( 1 λ ) ϖ 2 .
De hecho, existe un conjunto (posiblemente infinito) de estados puros Ω = { ω i , i I } y coeficientes { 0 < λ i < 1 , i I } tal que
ρ = i I λ i ω i .

Por lo tanto, la información transportada por el estado mixto ρ (su descripción del sistema) está completamente codificada en la información transportada por el conjunto Ω de estados puros, y en general está codificada por otros estados . Por otro lado, un estado puro lleva información máxima ya que la información que llevan no puede ser codificada en la que lleva ningún otro estado . El conjunto PAG de estados puros, por lo tanto, agota (mediante combinaciones convexas) todas las configuraciones posibles del sistema y, por lo tanto, contiene en algún sentido todo el conocimiento posible sobre el sistema.