¿Por qué la aplicación de la probabilidad en Mecánica Cuántica (QM) es fundamentalmente diferente de su aplicación en otras áreas? QM aplica la probabilidad de acuerdo con los mismos axiomas de probabilidad que en otras áreas de la física, la ingeniería, etc.
¿Por qué hay una diferencia?
Ingenuamente uno asumiría una de estas posibilidades:
No es la misma probabilidad (¿teoría?)
Es una cuestión de interpretación (¿del formalismo?)
¿Algo más?
Muchas respuestas (que todavía estoy estudiando) se centran en el hecho de que la probabilidad combinada de dos eventos mutuamente excluyentes en QM no es igual a la suma de las probabilidades de cada evento (que se cumple clásicamente por definición). Este hecho (parece) hace necesaria la formulación de otra probabilidad (una cuántica).
Sin embargo, esto nuevamente se divide en supuestas independientes o supuestas mutuamente excluyentes , si esto no es así, la "probabilidad clásica" es aplicable (como de hecho en otras áreas). Este es uno de los puntos principales de la pregunta.
La teoría de la probabilidad utilizada en QM es intrínsecamente diferente de la que se usa comúnmente por la siguiente razón: el espacio de eventos no es distributivo (más propiamente no booleano ) y este hecho afecta profundamente la teoría de la probabilidad condicional . La probabilidad de que suceda A si sucediera B se calcula de manera diferente en la teoría clásica de probabilidad y en la teoría cuántica, cuando A y B son eventos incompatibles cuánticamente . En ambos casos, la probabilidad es una medida en un retículo , pero, en el caso clásico, el retículo es booleano (un -álgebra), en el caso cuántico no lo es.
Para ser más claro, la probabilidad clásica es un mapa tal que es una clase de subconjuntos del conjunto incluido , cerrado respecto del complemento y de la unión contable, y tal que y:
Si, en cambio, considera un sistema cuántico, hay "eventos", es decir, proposiciones elementales de "sí/no" comprobables experimentalmente, que no pueden unirse mediante operadores lógicos AND y OR.
un ejemplo es "el componente del espín de este electrón es " y "el el componente es ". No existe ningún dispositivo experimental capaz de asignar un valor de verdad a y simultáneamente , de modo que las proposiciones elementales como " y " no tienen sentido. Pares de proposiciones como y anteriores son físicamente incompatibles .
En las teorías cuánticas (la versión más elemental debida a von Neumann), los eventos de un sistema físico están representados por los proyectores ortogonales de un espacio de Hilbert separable . El conjunto de esos operadores reemplaza al clásico .
En general, el significado de es algo así como "el valor de lo observable pertenece al subconjunto "para algunos observables y algunos conjuntos . Existe un procedimiento para integrar esta clase de proyectores etiquetados en subconjuntos reales para construir un operador autoadjunto asociado a lo observable , y esto no es más que el significado físico del teorema de la descomposición espectral .
Si , hay dos posibilidades: y viajan o no .
El axioma fundamental de Von Neumann establece que la conmutatividad es la correspondencia matemática de la compatibilidad física .
Cuando y viajes diarios, y siguen siendo proyectores ortogonales, es decir elementos de .
En esta situación, corresponde a " Y ", mientras corresponde a " O " y así sucesivamente, en particular "NO "siempre se interpreta como el proyector ortogonal sobre (el subespacio ortogonal de ), y todo el formalismo clásico se cumple así. De hecho, un conjunto máximo de proyectores que conmutan por pares tiene propiedades formales idénticas a las de la lógica clásica: es un booleano -álgebra.
En esta imagen, un estado cuántico es un mapa que asigna la probabilidad eso se verifica experimentalmente para cada . Tiene que satisfacer: y
Célebre Teorema de Gleason , establece que, si , las medidas son todos de la forma por algún estado mixto (un operador de clase de rastreo positivo con rastreo unitario), determinado biunívocamente por . En el conjunto convexo de estados, los elementos extremos son los estados puros estándar . Están determinados, hasta una fase, por vectores unitarios , de modo que, con algunos cálculos triviales (completando a una base ortonormal de y usando esa base para calcular la traza),
(Hoy en día, existe una versión generalizada de esta imagen, donde el conjunto se reemplaza por la clase de operadores positivos acotados en (los llamados "efectos") y el teorema de Gleason se reemplaza por el teorema de Busch con una declaración muy similar).
Por lo tanto, la probabilidad cuántica está dada por el mapa, para un estado generalmente mixto dado ,
Está claro que, tan pronto como uno trata con proposiciones físicamente incompatibles , (1) no puede sostenerse simplemente porque no hay nada como en el conjunto de proposiciones cuánticas físicamente sensibles. Todo eso se debe a que el espacio de eventos es ahora un conjunto de proyectores no conmutativos , lo que da lugar a una red no booleana.
La fórmula que reemplaza (1) es ahora:
En esto, es un proyector ortogonal y se puede interpretar como " Y " (es decir, ) cuando y son compatibles. En este caso (1) se cumple de nuevo. (2) da lugar a todas las "cosas extrañas" que aparecen en los experimentos cuánticos (como en el de doble rendija). En particular, el hecho de que, en QM, las probabilidades se calculan combinando amplitudes de probabilidad complejas surge de (2).
(2) solo se basa en el postulado de reducción de von Neumann-Luders que establece que, si el resultado de la medición de es SÍ cuando el estado era (es decir, ), el estado inmediatamente después de la medición es asociado a con
ANEXO . En realidad, es posible extender la noción de operadores lógicos AND y OR para todos los pares de elementos en y ese fue el programa de von Neumann y Birkhoff (la lógica cuántica ). De hecho, sólo la estructura reticular de lo permite, o mejor lo es . Con esta noción ampliada de Y y O, " Y " es el proyector ortogonal sobre mientras que " O " es el proyector ortogonal sobre el cierre del espacio . Cuando y conmutar estas nociones de Y y O reducir a las estándar. Sin embargo, con las definiciones extendidas , se convierte en una red en el sentido matemático propio, donde la relación de orden parcial viene dada por la inclusión estándar de subespacios cerrados ( medio ). El punto es que la interpretación física de esta extensión de AND y OR no está clara. Sin embargo, la red resultante no es booleana. En otras palabras, por ejemplo, estos AND y OR extendidos no son distributivos como lo son los AND y OR estándar (esto revela su naturaleza cuántica). Sin embargo, manteniendo también la definición de "NO como el proyector ortogonal sobre , la estructura encontrada de es bien conocido: A -completo, acotado, ortomodular, separable, atómico, irreducible y verificando la propiedad de cobertura, red. Hacia 1995 quedó definitivamente demostrada, por Solér, una conjetura debida a von Neumann afirmando que sólo existen tres posibilidades para realizar prácticamente tales retículas: La retícula de proyectores ortogonales en un espacio de Hilbert complejo separable, la retícula de proyectores ortogonales en un espacio real separable Espacio de Hilbert, la red de proyectores ortogonales en un espacio de Hilbert cuaterniónico separable.
El teorema de Gleason es válido en los tres casos. Varadarajan obtuvo la extensión al caso de los cuaterniones en su famoso libro 1 sobre la geometría de la teoría cuántica; sin embargo, se solucionó un vacío en su prueba en este artículo publicado del que soy coautor 2
Asumiendo la simetría de Poincaré, al menos para los sistemas elementales (partículas elementales), se puede descartar el caso de los espacios de Hilbert reales y cuaterniónicos (aquí hay un par de trabajos publicados en los que he sido coautor sobre el tema: 3 y 4 ) .
ANEXO 2 . Después de una discusión con Harry Johnston, creo que vale la pena mencionar un comentario interpretativo sobre el contenido probabilístico del estado. dentro de la imagen que ilustré arriba. en control de calidad es la probabilidad de que, si realizo cierto experimento (para comprobar ), resultaría ser cierto. Parece que aquí hay una diferencia con respecto a la noción clásica de probabilidad aplicada a los sistemas clásicos. Allí, la probabilidad se refiere principalmente a algo que ya existe (y a nuestro conocimiento incompleto de ello). En la formulación de QM que presenté anteriormente, la probabilidad se refiere a lo que sucederá si...
ANEXO 3 . Para el teorema de Gleason es válido y trivial. Para hay un contraejemplo conocido. dónde es un vector unitario en y es el vector unitario en asociado al proyector ortogonal en la esfera de Bloch: .
ANEXO 4 . Desde la perspectiva de la probabilidad cuántica, el postulado de reducción de von Neumann-Luders tiene una interpretación muy natural. Suponer que es una medida de probabilidad sobre la red cuántica representando un estado cuántico y suponiendo que la medida de , en ese estado, tiene resultado . Por lo tanto, el estado posterior a la medición está representado por , sólo en vista del postulado antes mencionado.
Es fácil probar que es la única medida de probabilidad tal que
Después de haberlo pensado un poco más, hay una diferencia filosófica inequívoca, con implicaciones prácticas. El experimento de las dos rendijas proporciona un buen ejemplo de esto.
En un universo clásico, cualquier fotón en particular que llega a la pantalla pasó por la rendija A o por la rendija B. Incluso si no nos molestamos en medir esto, uno u otro sucedió, y podemos definir significativamente y .
En un universo cuántico, si no nos molestamos en medir por qué rendija pasó un fotón, entonces no es cierto que pasó por una u otra rendija. Se podría decir que pasó por ambos, aunque ni siquiera eso es del todo cierto; todo lo que realmente podemos decir es que "pasó por las rendijas".
(Preguntar por qué rendija pasó un fotón en el experimento de dos rendijas es como preguntar cuál es la religión del fotón. Simplemente no es una pregunta significativa).
Eso significa que y simplemente no existen. Aquí es donde entra una de las implicaciones prácticas: si no entiende QM correctamente [estoy mintiendo un poco aquí; Volveré a eso], entonces aún puede calcular la probabilidad de que la partícula haya pasado por la rendija A y la probabilidad de que haya pasado por la rendija B. Y luego, cuando intenta aplicar las matemáticas habituales a esas probabilidades, no lo hace. funciona, y luego empiezas a decir que la probabilidad cuántica no sigue las mismas reglas que la probabilidad clásica.
(En realidad, lo que realmente está haciendo es calcular cuáles habrían sido las probabilidades de esos eventos si hubiera elegido medirlos. Como no lo hizo, no tienen sentido y las matemáticas no se aplican).
Entonces: la diferencia filosófica es que cuando se estudian sistemas cuánticos, a diferencia de los sistemas clásicos, la probabilidad de que algo hubiera sucedido si lo hubieras medido no tiene sentido en general a menos que realmente lo hayas hecho; la implicación práctica es que debe realizar un seguimiento de lo que midió o no midió para evitar hacer un cálculo no válido.
(En los sistemas clásicos, la mayoría de las preguntas sintácticamente válidas son significativas; me tomó un tiempo encontrar el contraejemplo dado anteriormente. En la mecánica cuántica, la mayoría de las preguntas no tienen sentido y tienes que saber lo que estás haciendo para encontrar las que son.)
Tenga en cuenta que hacer un seguimiento de si ha medido algo o no no es un ejercicio abstracto restringido a los casos en los que intenta aplicar la teoría de la probabilidad. Tiene un impacto directo y concreto en el experimento: en el caso del experimento de dos rendijas, si mides por qué rendija pasó cada fotón, el patrón de interferencia desaparece .
(Aún más complicado: si mide por qué rendija pasó cada fotón y luego borra correctamente los resultados de esa medición antes de mirar la película, el patrón de interferencia vuelve a aparecer).
PD: puede ser injusto decir que calcular una probabilidad de "habría" significa que no entiende QM correctamente. Simplemente puede significar que está eligiendo conscientemente usar una interpretación diferente y prefiere modificar o generalizar su concepción de la probabilidad según sea necesario. La respuesta de V. Moretti entra en detalles sobre cómo podría hacer esto. Sin embargo, aunque este tipo de cosas son interesantes, no me parece que tengan una utilidad obvia. (No está claro si da una idea de la desaparición y reaparición del patrón de interferencia como se describe anteriormente, por ejemplo).
Anexo: eso se ha vuelto más claro después de la discusión en los comentarios. Parece que se piensa que la formulación alternativa puede tener ventajas cuando se trata de escenarios más complicados (como ejemplo se mencionó QFT en el espacio-tiempo curvo). Eso es completamente plausible, y ciertamente no pretendo dar a entender que el trabajo carezca de valor; sin embargo, todavía no me queda claro si es pedagógicamente útil como alternativa al enfoque convencional cuando se aprende QM básico.
PPS: según la interpretación, puede haber otras diferencias filosóficas relacionadas con la naturaleza o el origen de la aleatoriedad. Creo que la estadística bayesiana es lo suficientemente amplia como para que estas diferencias no sean de gran importancia, e incluso desde un punto de vista frecuentista, no creo que tengan implicaciones prácticas.
Las probabilidades en QM están dadas por las amplitudes cuadradas de los términos relevantes en la función de onda, o por el valor esperado del proyector relevante o POVM. Sin embargo, no es el caso que esos números siempre actúen de manera consistente con el cálculo de probabilidad.
Por ejemplo, si hay dos formas mutuamente excluyentes de que suceda un evento, entonces el cálculo de probabilidad diría que la probabilidad de ese evento es la suma de las probabilidades de que suceda en cada una de esas formas. Pero en los experimentos de interferencia de un solo fotón esto no parece funcionar. Hay dos rutas a través del interferómetro, el fotón no se puede detectar en ambas rutas a la vez, por lo que son mutuamente excluyentes, ¿verdad? Entonces, para obtener la probabilidad de que el fotón emerja de un puerto en particular en el otro extremo, solo debe agregar la probabilidad de que vaya a lo largo de cada ruta. Pero ese cálculo da la respuesta incorrecta: puede obtener cualquier probabilidad que desee cambiando las longitudes de ruta, vea:
http://arxiv.org/abs/math/9911150 .
Entonces tienes el problema de explicar bajo qué circunstancias se aplica el cálculo de probabilidad.
Usted pregunta acerca de los enfoques frecuentistas de la probabilidad cuántica. Hay algunos enfoques de este tipo, por ejemplo, el artículo de Hugh Everett de 1957 y su doctorado. tesis:
http://www-tc.pbs.org/wgbh/nova/manyworlds/pdf/dissertation.pdf .
Creo que estos argumentos no funcionan porque el enfoque de frecuencia en sí mismo no funciona. ¿Por qué la frecuencia relativa sobre un número infinito de muestras tendría algo que ver con lo que se observa en un laboratorio? Y si hay alguna explicación, entonces ¿por qué nos molestamos con estas cosas de frecuencia relativa en lugar de usar la explicación real? La mejor explicación de por qué es aplicable es el enfoque teórico de la decisión:
http://arxiv.org/abs/quant-ph/9906015
http://arxiv.org/abs/0906.2718 .
El mejor intento de explicar las circunstancias en las que se cumple lo dan los requisitos que la mecánica cuántica impone a las circunstancias en las que se puede copiar la información:
La aplicación de la probabilidad en áreas distintas de la mecánica cuántica es una forma inteligente de modelar situaciones que son lo suficientemente complejas como para que el análisis exacto no sea factible, o al menos muy tedioso.
Por otro lado, en QM la naturaleza es inherentemente probabilística. Cuando realiza una observación, el estado cuántico en el que se encuentra su sistema tiene una probabilidad para cada resultado posible. No es más un truco para hacer cálculos. Es una característica de la naturaleza. Esa es la diferencia.
Tal vez encuentre interesante el ensayo Quantum Theory From Five Reasonable Axioms de Lucien Hardy. En resumen dice:
En este artículo se muestra que la teoría cuántica se puede derivar de cinco axiomas muy razonables. Los primeros cuatro de estos axiomas son obviamente consistentes tanto con la teoría cuántica como con la teoría clásica de la probabilidad. El axioma 5 (que requiere que existan transformaciones reversibles continuas entre estados puros) descarta la teoría clásica de la probabilidad.
Hay una diferencia importante, pero no es fundamental.
En ambos casos, la probabilidad surge de la necesidad de comparar los resultados de dos modelos incompatibles que operan a diferentes escalas, la microscópica y la macroscópica.
Darwin y Fowler mostraron hace mucho tiempo cómo derivar la Mecánica Estadística Clásica, el lugar principal en la física clásica donde ocurren las probabilidades, a partir de la Mecánica Cuántica. Entonces, en cierto sentido, la Mecánica Cuántica es fundamental y no hay problema en derivar el caso Clásico de ella. Fowler, Mecánica Estadística
Pero los presentaré en el otro orden, de todos modos. En la física clásica, si uno está analizando, digamos, un gas ideal, el sistema de partículas es determinista. Y el número de variables es 6 veces . Esta es la vista microscópica del sistema como un todo. Pero también se pueden estudiar ciertas propiedades de este gas en términos de muy pocas variables termodinámicas, temperatura, presión y volumen, que describen un macroestado. Pero en términos de esta descripción, el sistema es probabilístico: sólo se conocen las probabilidades con las que sus moléculas poseerán una determinada energía, etc. Además, la conexión entre los dos niveles de descripción del sistema, el nivel micro y el nivel macro -nivel, es a través de la medición . La medición de la velocidad de una molécula está modelada por el promedio de largo plazo sobre su trayectoria de su velocidad. Entonces resulta que para todo normalmoléculas, este procedimiento, siempre que el sistema esté en equilibrio, arroja la misma respuesta casi sin importar qué molécula o qué trayectoria estudie, y Einstein definió esto como la expectativa probabilística de la energía de una molécula. Véase Jan von Plato, Creando Probabilidad Moderna. Entonces, solo se asignan probabilidades a los resultados de las mediciones.
Ahora, según Feynman y otros, algo paralelo es cierto en la Mecánica Cuántica. Las probabilidades surgen de la necesidad de amplificar los microfenómenos hasta el nivel macro donde podemos ver el aparato de medición, ver una aguja en un dial apuntando a un número en el dial. (La ecuación de Schrödinger es en sí misma una ecuación determinista y las probabilidades sólo entran en los axiomas de medición.) Los únicos "eventos" en el sentido de la teoría matemática de la probabilidad, es decir, cosas a las que se asignan probabilidades, son los resultados de las mediciones. Y aquí, también, la medida tiene algo que ver con describir de forma reducida el estado de un microsistema en términos de macroestados en lugar de sus microestados. La aguja del dial realmente obedece a las leyes de la mecánica cuántica: tiene una función de onda, está en un estado entrelazado, etc.términos clásicos , que son macro-términos. El paso de la microdescripción de la partícula en términos de conceptos cuánticos a esta descripción reducida trae probabilidades.
Es un mito que las probabilidades en la mecánica estadística clásica se deban a la ignorancia o sean subjetivas. Se producen sólo porque uno restringe la atención a la célula normal de los microestados (célula normal en el sentido de Darwin y Fowler) e ignora los estados excepcionales. La definición de "normal" es objetiva: los estados se pueden agrupar en celdas de estados: todos aquellos estados que poseen las mismas propiedades de promedio de tiempo entre sí. La célula normal es la célula más grande. En el límite termodinámico, la celda normal no solo es la más grande, es la única con volumen positivo, todas las demás celdas son meros límites con menor dimensión.
Es un mito que las probabilidades en Mecánica Cuántica sean de alguna manera "no conmutativas". El problema no es que haya observables que no viajen al trabajo. Si está midiendo el momento, la configuración experimental es bastante definida, y el espacio de eventos depende de la configuración física, y solo tiene los resultados de medir el momento. Si el aparato de medición es adecuado para medir la cantidad de movimiento, entonces los resultados para la posición no soneventos. La configuración excluye la medición de posición, por lo que las mediciones de posición son imposibles en esta configuración. Y por el contrario. No existe un único espacio de probabilidad global con ambos tipos de eventos en él, como suponen ingenuamente los matemáticos que estudian la llamada "Probabilidad Cuántica" o "Probabilidad No Conmutativa". Bohr nos enseñó que si configura el aparato para un tipo de medición (p. ej., momento), excluye físicamente la posibilidad del otro tipo de medición complementaria (p. ej., posición). Eso significa que trabajas en un espacio de probabilidad con eventos y medidas normales de su probabilidad, o estás en un espacio de probabilidad totalmente diferente con sus propios eventos y su propia medida. Ahora,
RESPUESTA: No pueden existir eventos mutuamente excluyentes antes de la medición , en la formulación probabilística de la mecánica cuántica (interpretación de Copenhague-CIQM), porque, al máximo, se requiere que el CIQM viole el realismo local y, al mínimo, podría romper el principio de localidad. Y después de la medición, el problema que mencionó no existe porque es erradicado por un desafío mucho mayor, es decir, la simultaneidad de dos eventos separados espacialmente o eventos cuánticamente separados (los dos no son necesariamente equivalentes). Comience desde el mapa en https://en.wikipedia.org/wiki/Principle_of_locality .
( )-En primer lugar el concepto de probabilidad es un diseño de la interpretación de Copenhague de la mecánica cuántica en la que se corresponde una función de onda (con todas las características de una onda) a una partícula; a través de esto, se construye un canal matemático directo entre el comportamiento de las partículas y las ondas. En esta imagen, no puedes separar estas naturalezas. Este primer paso tan importante se expresa mediante el " principio de complementariedad ".
( ) Ahora bien, esta imagen no está completa y para unir esta imagen a la experiencia tangible, " corresponden " el cuadrado de la amplitud de la función de onda a la probabilidad de que la partícula esté en un punto específico en el espacio y el tiempo.
ADVERTENCIA: Su pregunta está relacionada con esta correspondencia, no directamente con la noción de probabilidad.
Ahora, señalaría otros dos bloques de construcción de Copenhagen QM que completan su correspondencia probabilística:
Esto es equivalente a uno de los dos postulados importantes de los productos internos en el espacio de Hilbert:
El segundo postulado se llama postulado de métrica definida positiva según el cual
Otra característica importante está relacionada con la conservación de la probabilidad al traducir los estados del ket; así es como se extrae la unitaridad de los operadores de traducción. Creo que este es probablemente el postulado más importante con respecto a la probabilidad mecánica cuántica. Debe ser equivalente a una suposición sobre el tejido del espacio-tiempo.
Y el punto final: toda teoría que viole la desigualdad de Bell no sería localmente invariante y produciría predicciones que ningún realismo local haría.
La teoría clásica de la probabilidad es un límite degenerado de la teoría cuántica de la probabilidad. Entonces, hay una relación asimétrica entre los dos, puedes derivar completamente la teoría clásica de la probabilidad de la teoría cuántica de la probabilidad, pero no al revés. En realidad, es el caso de que las mismas probabilidades que ocurren en el mundo real, incluso cuando están firmemente dentro del dominio clásico, siempre están dadas por la amplitud al cuadrado de un vector de estado mecánico cuántico que describe la física. Como se señaló aquí , no hay ejemplos conocidos de probabilidades clásicas que no tengan un origen mecánico cuántico.
Como se señala en el artículo, ya sea que considere lanzamientos de monedas, apuestas a los dígitos de pi, etc., siempre se puede demostrar que las probabilidades son puramente de origen mecánico cuántico, que surgen de la regla de Born y no del razonamiento clásico invocado basado en conocimiento insuficiente. Por lo tanto, la teoría clásica de la probabilidad no es fundamental, debe derivarse como una aproximación apropiada de la mecánica cuántica.
Sin embargo, las matemáticas de la teoría clásica de la probabilidad funcionan de manera fundamentalmente diferente a como funcionan las matemáticas de la teoría cuántica de la probabilidad. Entonces, ¿cómo puede no haber una diferencia fundamental? La respuesta es que la teoría clásica es un límite degenerado de la teoría mecánica cuántica, en el límite clásico, los conmutadores de observable se desvanecen, lo que le permite usar un razonamiento matemático que no está permitido en la teoría cuántica. Pero puedes hacer la teoría de probabilidad clásica sin problemas dentro de la teoría de probabilidad cuántica y luego tomar el límite clásico.
kutschkem
danu
nikos m.
usuario26143
nikos m.
nikos m.
monovolumen
DosBs
hacer señas
harry johnston
mike dunlavey
Dganar
nikos m.
harry johnston
innisfree
DosBs
nikos m.