¿Cuál es la relación entre la definición del principio de incertidumbre usando desviaciones estándar versus usando ΔxΔx\Delta x y ΔpΔp\Delta p?

Entonces, escuché dos explicaciones diferentes del principio de incertidumbre, las cuales tienen sentido por sí solas, pero me cuesta entender cómo están conectadas. La primera es que el principio de incertidumbre es realmente un principio estadístico. Básicamente, podemos medir la posición de una partícula en cualquier momento individual con la precisión que nuestro equipo lo permita. Lo mismo con el impulso. Sin embargo, si tomamos varias medidas, siempre habrá alguna variación en ambos conjuntos de datos y el producto de las desviaciones estándar siempre será mayor o igual que h / 2 .

La otra explicación que he escuchado lo explica en términos de propiedades de las ondas. Esencialmente, una partícula es realmente solo la superposición de muchas ondas diferentes en el campo relevante. Una onda de período no TIENE una posición o momento bien definido, por lo que tenemos que sumar muchas ondas diferentes de diferentes momentos para crear suficiente interferencia destructiva para que la mayoría de los picos se cancelen y obtengamos un paquete de ondas con un posición bastante bien definida, aunque siempre habrá ALGUNA variación. Se requiere un proceso similar para el impulso. Esta es la explicación más intuitiva del principio de incertidumbre que he escuchado, pero ¿cómo se relaciona con la definición estadística? yo se que tiene algoque ver con que la función de onda sea una función de probabilidad (o, más específicamente, su magnitud al cuadrado es la función de densidad de probabilidad), pero no estoy seguro exactamente de qué.

Creo que parte de lo que me confunde es que no entiendo cómo es posible sumar un montón de ondas para (a falta de un término mejor) "generar" una partícula con una posición/momento mejor definido. Las matemáticas tienen sentido, pero ¿cómo se relacionan con la forma en que realmente realizamos las mediciones? No necesito los detalles de cómo funcionan los dispositivos de medición específicos, sino más bien el concepto de medición en la mecánica cuántica y cómo se corresponde con la idea de tomar la superposición de muchas ondas para crear un paquete de ondas y qué tiene que ver eso con tomar mediciones múltiples y que tienen variación en los datos.

Siento que estoy empezando a comprender al menos un poco cómo funciona la mecánica cuántica (me ha fascinado durante años), pero estoy bastante confundido al respecto. Cualquier ayuda es muy apreciada.

Respuestas (2)

Usted más o menos respondió a su propia pregunta. Las propiedades de onda se describen mediante una función de onda que se rige por las ecuaciones dinámicas del sistema bajo investigación y las propiedades estadísticas aparecen cuando realiza mediciones de esta función de onda. Dichas mediciones muestrearán la función de onda de forma aleatoria, de modo que el módulo al cuadrado de la función de onda proporcione la densidad de probabilidad de los resultados de la medición. De esa manera, el principio de incertidumbre es descrito por ambos.

La función de onda puede representarse en el espacio de "posición", en función de las coordenadas de posición, o en el dominio de Fourier en función de los vectores de onda. Uno puede pasar de uno a otro a través de transformadas de Fourier (inversas). Incluso en la óptica clásica ( óptica de Fourier ), ya se puede ver cómo un campo óptico se puede representar como una superposición de ondas planas. Eso luego lleva a la comprensión de la relación de incertidumbre para la función de onda.

Las mediciones de las funciones de onda siempre involucran interacciones entre la función de onda y el dispositivo de medición. Tal interacción implica una transferencia de energía y cantidad de movimiento gobernada por la relación de Planck (y de Broglie) entre frecuencia y energía (número de onda y cantidad de movimiento), que trae consigo la constante de Plank. Por lo tanto, encontramos la constante de Planck en la relación de incertidumbre.

Debe aclararse un punto preliminar, antes de discutir las Relaciones de Incertidumbre. Según la Mecánica Cuántica una partícula nunca es una onda o una superposición de ondas . Las ondas clásicas no tienen nada que ver con partículas cuánticas individuales. Existe una relación con las ondas, pero es mucho más sutil: las ondas se pueden utilizar para obtener la distribución de probabilidad de cantidades observables. Hay una gran diferencia con la afirmación de que una partícula es una onda. Si esto fuera cierto, sería posible detectar una cantidad arbitrariamente pequeña de cualquier elemento observable como carga, espín, etc., mientras que experimentalmente sabemos que esas cantidades solo pueden tener valores bien definidos.

El contenido del Principio de Incertidumbre (UP) es aparentemente simple. Sin embargo, tras su enunciado por Werner Heisenberg, fuertemente influido por el principio de complementariedad de Bohr, sufrió una importante mutación tras la derivación de Robertson de una desigualdad general para el producto de las varianzas de las distribuciones estadísticas de los valores de dos operadores no conmutantes. La coexistencia de las interpretaciones estadísticas y de Heisenberg originales todavía causa problemas conceptuales y conceptos erróneos en la comprensión de UP.

Después del trabajo de Robertson, las relaciones UP se presentan como una declaración sobre la distribución de los valores posibles de dos observables que no conmutan, cuando se miden con alta precisión arbitraria en un estado cuántico dado. Como tal, no hay referencia a perturbaciones experimentales e incluso el efecto del observador juega un papel menor. Además, no hay ninguna referencia a las propiedades ondulatorias de las partículas individuales . En realidad, la interpretación estadística de UP implica solo que, si se ha preparado un conjunto de sistemas cuánticos en un estado dado | 0 , medidas independientes de observables representadas por operadores A y B implicaría que la distribución de las medidas de A y B debe estar sujeto a la desigualdad

σ A 2 σ B 2 | 1 2 i 0 [ A , B ] 0 | 2 .

Como tal, la UP diría algo muy diferente a las ideas originales contenidas en el análisis del microscopio de Heisenberg. Desafortunadamente, este punto a menudo no se aclara en las discusiones sobre UP.

El punto de vista actual sobre la formulación de Heisenberg es que fue un intento de abordar un problema diferente. que tiene un origen común en la no conmutación de algunos pares de operadores que representan observables, pero no coincide con el resultado estadístico de Robertson.

Este último punto ha surgido bastante claro por un resurgimiento del interés, en las últimas dos décadas, por el contenido físico de UP con respecto al problema de las mediciones (casi) simultáneas de observables que no conmutan.

De hecho, la no conmutación de dos operadores, de acuerdo con los postulados básicos de QM, implica que no es posible medir al mismo tiempo las dos cantidades (por lo tanto, algo bastante diferente del conjunto de medidas no relacionadas del análisis estadístico de UP). La razón es que uno de los postulados básicos de QM dice que el efecto de una medición de una cantidad A es llevar el sistema cuántico a uno de los estados propios del operador correspondiente. Sin embargo, dos operadores que no conmutan no tienen un conjunto de vectores propios comunes, entonces la imposibilidad teórica de una medición simultánea.

En los últimos años, la gente ha comenzado a analizar cuantitativamente tal imposibilidad, haciéndose preguntas sobre qué tan bueno podría ser, sobre una base teórica, una medición conjunta de dos observables que no conmutan. Véase, por ejemplo, el artículo de Cyril Branciard sobre PNAS y las referencias que contiene.

Bajo este nuevo punto de vista, es posible recuperar en forma semicuantitativa la formulación original de Heisenberg, aunque el valor exacto de la "incertidumbre" puede ser ligeramente diferente.