No estoy familiarizado (todavía) sobre cómo la teoría de la información puede surgir/utilizarse en QM/QFT, pero estaba pensando en esta pregunta:
Si bien tenemos el principio de incertidumbre de Heisenberg sobre la medición de observables acoplados, ¿podemos expresarlo usando de alguna manera un concepto más fundamental/abstracto como la incertidumbre de la información (especialmente porque tenemos el principio de conservación de la información como para la energía y el momento, y la simetría asociada, es decir, CPT)? en el sentido de que debido a que siempre hay algunos detalles que no podemos medir/conocer, ¿podemos expresar eso como cierta incertidumbre de la información?
Y a pesar de la respuesta, explique por qué hay o no conexión/relación entre los dos conceptos.
La respuesta de Lubos es correcta: la información no es un observable por lo que no tiene fluctuaciones en el sentido de que pueda entrar en una relación de incertidumbre. Sin embargo, existe una relación entre la 'información' y el principio de incertidumbre, aunque no del tipo que parece que espera el OP.
En primer lugar, tenga en cuenta que la 'conservación de la información' nunca podría ser una explicación del principio de incertidumbre. La información no es una cantidad conservada en la mecánica cuántica, ya que las medidas son parte del formalismo. Las medidas, por definición, producen un cambio discontinuo en el contenido de información de un sistema con respecto a un observador. Es importante recordar que, a pesar de su actual estatus de moda como paradigma para comprender la física, la información aún no es una propiedad física de un sistema. Más bien, es una propiedad de la relación entre un observador y un sistema. La única sutileza es que la mecánica cuántica impone una restricción fundamental a la cantidad de información que puede obtener cualquier observador.
Para comprender cómo hacer que esta restricción sea cuantitativa, deberá aprender un poco de teoría de estimación cuántica. No voy a derivarlo todo aquí; puede encontrar detalles en revisiones como, por ejemplo, este artículo . La idea básica es que si quieres estimar algún parámetro del que depende un estado, que puede ser o no un "observable" en el sentido tradicional, su precisión estará limitada por el límite de Cramer-Rao :
Dado un sistema y un parámetro a estimar, la información de Fisher generalmente depende de la elección de las medidas. En el caso cuántico, se puede hacer aún mejor y mostrar que la información de Fisher está limitada desde arriba por la información de Quantum Fisher . , entonces el límite cuántico de Cramer-Rao dice
¿Cómo se relaciona esto con el principio de incertidumbre? Especializarse al caso particular de un sistema en estado puro, donde la dependencia del parámetro se produce por la transformación unitaria
Otra conexión sutil que vale la pena mencionar es un hecho muy profundo sobre la mecánica cuántica: "la ganancia de información implica perturbación". Esto significa que es imposible obtener alguna información sobre un sistema sin perturbarlo. Cuanta más información se obtiene, mayor es la perturbación. Consulte este documento para obtener más información. Si toma la compensación de la perturbación de la información como un principio fundamental para la mecánica cuántica, como en este artículo reciente , entonces tiene una forma heurística de comprender el origen físico del principio de incertidumbre.
Está buscando el principio de incertidumbre de Hirschman Beckner, descrito en la página de Wikipedia aquí . Si bien Hirschman fue el primero, lo aprendí leyendo la tesis de Everett sobre la interpretación de muchos mundos de la mecánica cuántica, que es un intento de reformular la mecánica cuántica utilizando las herramientas de información de Shannon.
La declaración del principio es que
Y que esta desigualdad se satura exactamente para paquetes de ondas gaussianas. Fue conjeturado por Hirschman y probado por Beckner en 1975. La tesis de Everett aparece después del artículo de Hirschman, pero no me queda claro en qué dirección va el plagio, si es que lo hace, ya que es muy probable que sea un descubrimiento simultáneo.
El argumento de Everett muestra que las gaussianas son mínimos locales para la suma de y y da fuertes razones para creer que es un mínimo global. Esta creencia está justificada por la prueba rigurosa. La formulación teórica de la información es más poderosa que la formulación en términos de varianza, ya que si la distribución x es una suma de muchos picos estrechos y separados, la incertidumbre del momento es como el ancho de los picos, no como la distancia entre ellos, incluso aunque la varianza total es como la distancia entre ellos, no como el ancho de los picos en sí.
La relación de incertidumbre de Heisenberg es válida para los observables, algo que puede medirse con un aparato y, de acuerdo con las reglas universales de la mecánica cuántica, está representado por un operador lineal en el espacio de Hilbert.
La información no es observable, por ambas razones (no se puede medir con un dispositivo; y no es un operador lineal, aunque "el logaritmo de la matriz de densidad" se acerca bastante a esa descripción), por lo que no puede entrar en la relación de incertidumbre de Heisenberg. Por cierto, "la cantidad de información" es algo incierta o está mal definida incluso en la física clásica, por lo que esta incertidumbre no tiene nada que ver con la mecánica cuántica.
El último punto puede explicarse con un argumento más simple. Tenga en cuenta que la desigualdad de Heisenberg tiene , la constante de Planck reducida en el lado derecho. Es una cantidad que se envía a cero en el límite clásico. Desde el punto de vista de nuestros grandes observadores, es un número pequeño, por lo que la relación de incertidumbre es un "efecto menor" a escala macroscópica.
Pero en las unidades habituales, es dimensional (unidades de acción, es decir, de energía por tiempo), por lo que está claro que los observables del lado izquierdo también deben ser dimensionales. La posición y el impulso son; la información (el número de bits, un número adimensional) no lo es. Entonces, por análisis dimensional, la incertidumbre de la información no tiene nada que ver con la mecánica cuántica.
La afirmación misma de que la información es "más fundamental" es algo especulativa y cargada. Uno puede crear tales "prioridades" y sí, en efecto, lo que sabemos es la información. Sin embargo, siempre que expresemos lo que sabemos de alguna manera tangible, tenemos que usar observables particulares como o el momento angular, etc. Solo cuando lleguemos a este nivel, ya sea que lo llames fundamental o no, pero deberías, podemos hablar de principios bien definidos, como el principio de incertidumbre. Es un principio muy fundamental; simplemente no está de acuerdo con la filosofía (empíricamente injustificada) de que la información es más fundamental que los observables particulares.
En primer lugar, permítanme resaltar que el principio de incertidumbre de Heisenberg era un principio cuando se estaba desarrollando la mecánica cuántica pero ahora es un teorema derivado de postulados más fundamentales de la mecánica cuántica (sigue llamándose principio por razones históricas).
Con respecto a su pregunta, debe verificar Derivación de entropía relativa del principio de incertidumbre con información del lado cuántico y Relaciones de incertidumbre de propiedades entrópicas simples publicadas recientemente en PRL
mike dunlavey
TMS
marca mitchison
mike dunlavey