¿Principio de incertidumbre de la información?

No estoy familiarizado (todavía) sobre cómo la teoría de la información puede surgir/utilizarse en QM/QFT, pero estaba pensando en esta pregunta:

Si bien tenemos el principio de incertidumbre de Heisenberg sobre la medición de observables acoplados, ¿podemos expresarlo usando de alguna manera un concepto más fundamental/abstracto como la incertidumbre de la información (especialmente porque tenemos el principio de conservación de la información como para la energía y el momento, y la simetría asociada, es decir, CPT)? en el sentido de que debido a que siempre hay algunos detalles que no podemos medir/conocer, ¿podemos expresar eso como cierta incertidumbre de la información?

Y a pesar de la respuesta, explique por qué hay o no conexión/relación entre los dos conceptos.

La teoría de la información tiene al menos dos enfoques generales, el de Shannon y el de Kolmogorov . Además, dado que los procesos cuánticos son reversibles, eso hace que la información sea una cantidad conservada.
@Mike: ¿apuntas a esa información? la conservación se debe a la reversibilidad, no a la CPT? ¿No están conectados al final?
Bajo operaciones unitarias , la información (entropía) se conserva. Sin embargo, el principio de incertidumbre se refiere al proceso de medición cuántica, que manifiestamente no conserva la información porque los estados cuánticos cambian de forma discontinua e irreversible.
@Mark: Lo dijiste con más precisión que yo.

Respuestas (4)

La respuesta de Lubos es correcta: la información no es un observable por lo que no tiene fluctuaciones en el sentido de que pueda entrar en una relación de incertidumbre. Sin embargo, existe una relación entre la 'información' y el principio de incertidumbre, aunque no del tipo que parece que espera el OP.

En primer lugar, tenga en cuenta que la 'conservación de la información' nunca podría ser una explicación del principio de incertidumbre. La información no es una cantidad conservada en la mecánica cuántica, ya que las medidas son parte del formalismo. Las medidas, por definición, producen un cambio discontinuo en el contenido de información de un sistema con respecto a un observador. Es importante recordar que, a pesar de su actual estatus de moda como paradigma para comprender la física, la información aún no es una propiedad física de un sistema. Más bien, es una propiedad de la relación entre un observador y un sistema. La única sutileza es que la mecánica cuántica impone una restricción fundamental a la cantidad de información que puede obtener cualquier observador.

Para comprender cómo hacer que esta restricción sea cuantitativa, deberá aprender un poco de teoría de estimación cuántica. No voy a derivarlo todo aquí; puede encontrar detalles en revisiones como, por ejemplo, este artículo . La idea básica es que si quieres estimar algún parámetro λ del que depende un estado, que puede ser o no un "observable" en el sentido tradicional, su precisión estará limitada por el límite de Cramer-Rao :

V a r ( λ ) 1 METRO F ( λ ) ,
dónde V a r ( λ ) es la varianza de la distribución de los resultados de la medición, METRO es el número de medidas y F ( λ ) es la llamada Información Fisher. Este es un resultado de la teoría clásica de la información.

Dado un sistema y un parámetro a estimar, la información de Fisher generalmente depende de la elección de las medidas. En el caso cuántico, se puede hacer aún mejor y mostrar que la información de Fisher está limitada desde arriba por la información de Quantum Fisher . H ( λ ) , entonces el límite cuántico de Cramer-Rao dice

V a r ( λ ) 1 METRO H ( λ ) .
La información cuántica de Fisher proporciona el límite superior absoluto de la cantidad de información que un observador puede obtener sobre el parámetro. λ midiendo el sistema. Es la información de Fisher correspondiente a la base de medición óptima.

¿Cómo se relaciona esto con el principio de incertidumbre? Especializarse al caso particular de un sistema en estado puro, donde la dependencia del parámetro se produce por la transformación unitaria

| ψ ( λ ) = tu λ | ψ ( 0 ) ,
dónde
tu λ = mi i λ GRAMO ,
y GRAMO es el generador hermitiano de la transformación unitaria. Esto incluye escenarios como la incertidumbre energía-tiempo, donde GRAMO = H ^ es el hamiltoniano (generador de traslaciones de tiempo) y λ = t es el tiempo de espera después de la preparación inicial del estado | ψ ( 0 ) (Lo puse = 1 ). Entonces puedes derivar la siguiente desigualdad del límite cuántico de Cramer-Rao:
V a r ( λ ) ψ ( 0 ) | GRAMO 2 | ψ ( 0 ) 1 4 METRO ,
que es exactamente una relación de incertidumbre. Tenga en cuenta que este ejemplo es ligeramente artificial: las relaciones de incertidumbre son más generales que este escenario. Sin embargo, esperamos que este ejemplo le dé una idea de cómo las relaciones de incertidumbre pueden vincularse con conceptos de la teoría de la información. (También muestra que las relaciones de incertidumbre de energía-tiempo no requieren mucho movimiento de manos para derivar, como algunas personas parecen creer).

Otra conexión sutil que vale la pena mencionar es un hecho muy profundo sobre la mecánica cuántica: "la ganancia de información implica perturbación". Esto significa que es imposible obtener alguna información sobre un sistema sin perturbarlo. Cuanta más información se obtiene, mayor es la perturbación. Consulte este documento para obtener más información. Si toma la compensación de la perturbación de la información como un principio fundamental para la mecánica cuántica, como en este artículo reciente , entonces tiene una forma heurística de comprender el origen físico del principio de incertidumbre.

el OP establece que la información se conserva en el sentido de que toda evolución es unitaria. No se refiere necesariamente a información utilizable, sino a información en el estado cuántico del universo (microestado)
@lurscher Parece que me estás poniendo palabras en la boca del OP. En cualquier caso, atribuir un estado puro de evolución unitaria al universo como lo ha hecho implícitamente en su comentario es una declaración metafísica de contenido físico cuestionable.
He intentado editar pero no es fácil en un teléfono :). Permítanme agregar que lo siento si entendí mal la intención de la operación, pero el concepto de "contenido de información" del universo ni siquiera tiene sentido si acepta mi proposición de que la información no es completamente una propiedad física.
@Mark: gracias por su respuesta satisfactoria.

Está buscando el principio de incertidumbre de Hirschman Beckner, descrito en la página de Wikipedia aquí . Si bien Hirschman fue el primero, lo aprendí leyendo la tesis de Everett sobre la interpretación de muchos mundos de la mecánica cuántica, que es un intento de reformular la mecánica cuántica utilizando las herramientas de información de Shannon.

La declaración del principio es que

H ( X ) + H ( pags ) en ( mi π )

Y que esta desigualdad se satura exactamente para paquetes de ondas gaussianas. Fue conjeturado por Hirschman y probado por Beckner en 1975. La tesis de Everett aparece después del artículo de Hirschman, pero no me queda claro en qué dirección va el plagio, si es que lo hace, ya que es muy probable que sea un descubrimiento simultáneo.

El argumento de Everett muestra que las gaussianas son mínimos locales para la suma de H ( X ) y H ( pags ) y da fuertes razones para creer que es un mínimo global. Esta creencia está justificada por la prueba rigurosa. La formulación teórica de la información es más poderosa que la formulación en términos de varianza, ya que si la distribución x es una suma de muchos picos estrechos y separados, la incertidumbre del momento es como el ancho de los picos, no como la distancia entre ellos, incluso aunque la varianza total es como la distancia entre ellos, no como el ancho de los picos en sí.

Incertidumbre de momento como el ancho de los picos... enfoque interesante, gracias por la información.
Ron Maimon dio la respuesta exacta que dio Hirschman en 1954 al comienzo de la era de la teoría de la información. El oscilador armónico clásico tiene una entropía física de una constante de Boltzmann que equivale a 2 grados de libertad p y q. El oscilador cuántico tiene menos de una constante de Boltzmann. Puede leer más sobre esto en el libro "Entropy God's Dice Game" y en el sitio www.entropy-book.com.

La relación de incertidumbre de Heisenberg es válida para los observables, algo que puede medirse con un aparato y, de acuerdo con las reglas universales de la mecánica cuántica, está representado por un operador lineal en el espacio de Hilbert.

La información no es observable, por ambas razones (no se puede medir con un dispositivo; y no es un operador lineal, aunque "el logaritmo de la matriz de densidad" en ρ se acerca bastante a esa descripción), por lo que no puede entrar en la relación de incertidumbre de Heisenberg. Por cierto, "la cantidad de información" es algo incierta o está mal definida incluso en la física clásica, por lo que esta incertidumbre no tiene nada que ver con la mecánica cuántica.

El último punto puede explicarse con un argumento más simple. Tenga en cuenta que la desigualdad de Heisenberg tiene , la constante de Planck reducida en el lado derecho. Es una cantidad que se envía a cero en el límite clásico. Desde el punto de vista de nuestros grandes observadores, es un número pequeño, por lo que la relación de incertidumbre es un "efecto menor" a escala macroscópica.

Pero en las unidades habituales, es dimensional (unidades de acción, es decir, de energía por tiempo), por lo que está claro que los observables del lado izquierdo también deben ser dimensionales. La posición y el impulso son; la información (el número de bits, un número adimensional) no lo es. Entonces, por análisis dimensional, la incertidumbre de la información no tiene nada que ver con la mecánica cuántica.

La afirmación misma de que la información es "más fundamental" es algo especulativa y cargada. Uno puede crear tales "prioridades" y sí, en efecto, lo que sabemos es la información. Sin embargo, siempre que expresemos lo que sabemos de alguna manera tangible, tenemos que usar observables particulares como X , pags o el momento angular, etc. Solo cuando lleguemos a este nivel, ya sea que lo llames fundamental o no, pero deberías, podemos hablar de principios bien definidos, como el principio de incertidumbre. Es un principio muy fundamental; simplemente no está de acuerdo con la filosofía (empíricamente injustificada) de que la información es más fundamental que los observables particulares.

Gracias por la respuesta. En primer lugar, no puedo estar de acuerdo con su suposición de que la incertidumbre de la información debería tener la forma de incertidumbre de Heisenberg, sin hablar de su intento de análisis dimensional de eso. En segundo lugar, como se sabe, la incertidumbre se debe a la naturaleza cuántica, no al proceso de medición en sí mismo, por lo que la incertidumbre debería tener un significado diferente aquí. Finlay, quise decir fundamental, más abstracto, mi culpa, y mi enfoque fue que debido a que siempre hay algo que no podemos saber exactamente, ¿es posible que esto se pueda expresar como suerte de información?
Estimado TMS, lo que significa exactamente la incertidumbre es sutil y uno debe tener cuidado al respecto y parece que está tratando de tener cuidado, pero no parece que esté teniendo éxito. ;-) Para definir información en QM, por ejemplo, por T r ρ en ρ de una matriz de densidad, es un poco no trivial. Las funciones de onda gaussianas que minimizan Δ X Δ pags son estados puros lo que significa que tienen "información cero". Pero los estados puros que no minimizan el producto de incertidumbre también tienen "información cero". Entonces, su intuición de que la ausencia de información "es" la incertidumbre no es realmente correcta.
En cierto sentido, está malinterpretando ligeramente el término "información". Parece pensar que la información es lo mismo que la precisión: la mayoría de las cosas que llamaría "mucha información" se trata de "decir los valores de los observables con una buena precisión". Pero no es así como funciona, especialmente no en QM. Exactamente debido al principio de incertidumbre, la exactitud de X , pags no puede exceder cierto límite (correlacionado) y no puede haber información más allá de él, ni siquiera en principio. En cambio, la mayor parte de la información se trata de saber "al menos algo" acerca de muchos observables, por ejemplo, las coordenadas de muchos átomos.
Permítanme decirlo de nuevo, ligeramente diferente. El principio de incertidumbre dice que no puede existir información sobre el valor "muy preciso" de X y valor "muy preciso" de pags , ni siquiera en principio. Porque esta información no puede existir (porque los estados con datos muy precisos X , pags tampoco existen), tampoco puede hacerse ausente. ;-) Pero la información solo puede expresar lo que necesita saber para distinguir qué opción entre "opciones/estados posibles a priori" se realiza. Si algo es imposible en general, decir que no se realiza en una situación NO te proporciona información.

En primer lugar, permítanme resaltar que el principio de incertidumbre de Heisenberg era un principio cuando se estaba desarrollando la mecánica cuántica pero ahora es un teorema derivado de postulados más fundamentales de la mecánica cuántica (sigue llamándose principio por razones históricas).

Con respecto a su pregunta, debe verificar Derivación de entropía relativa del principio de incertidumbre con información del lado cuántico y Relaciones de incertidumbre de propiedades entrópicas simples publicadas recientemente en PRL