Necesito confirmar si entiendo o no el principio de incertidumbre de Heisenberg. Entonces, lo crucial es que necesita un "conjunto" de medidas :
Si tuviera que realizar un experimento tratando de validar esto con partículas, primero mediría, digamos, la posición en el dirección de un "conjunto" de partículas, ¿verdad? Porque cuando mides la posición de una partícula, obtienes un solo número.
Por lo tanto, "si hubiera tratado de medir el impulso en el dirección al mismo tiempo que mide la posición en el dirección de una partícula", también obtendría un solo número para el momento correspondiente a esa partícula.
Es hasta que combine todas mis medidas de y juntarlos y trazarlos en un gráfico en el que literalmente "verías" la relación de incertidumbre. Este es mi entendimiento.
Entonces calcularías , que es la desviación estándar de medidas y como la desviación estándar de medidas y multiplícalas. Calcule la desviación estándar por , dónde es el número de partículas y es el promedio de todas las medidas de posición.
hago lo mismo con el valores de impulso. ¿Estoy en lo correcto?
Además, quiero solidificar aún más mi comprensión... Entonces, ¿puedo pensar que la buena curva de densidad de probabilidad que normalmente veo para la posición de una partícula es la gráfica ideal para un conjunto de un trillón de medidas, verdad? Suele ser gaussiano. La distribución depende del potencial que conecte a la función de onda. Sin embargo, la distribución calculada es "como si" hubiera realizado un millón de mediciones en un conjunto de sistemas preparados de manera idéntica. ¿Estoy aquí?
Entonces, esta es la razón por la que cuando tienes "precisa " lo que significa un valor muy pequeño para ", la dispersión de las medidas de posición es muy estrecha. Siguiendo el principio, DEBE terminar con una curva muy gruesa o ancha para la función de impulso porque su desviación estándar debe ser grande para preservar el principio.
Además de los comentarios de Lubos
Si tuviera que realizar un experimento tratando de validar esto con partículas, primero mediría, digamos, la posición en la dirección X de un "conjunto" de partículas, ¿no? Porque cuando mides la posición de una partícula, obtienes un solo número.
Cuando mide la posición de una partícula experimentalmente, obtiene un solo número con su error de medición instrumental, es decir, un número en cualquier lugar dentro de este error de medición, que generalmente sigue una curva de probabilidad gaussiana.
Por lo tanto, "si hubiera tratado de medir el momento en la dirección X al mismo tiempo que mido la posición en la dirección X de una partícula", también obtendría un solo número para el momento correspondiente a esa partícula.
En el microrégimen, donde el HUP es significativo, te dice que si tratas de medir el error de esa única partícula en el momento p_x, el error estará limitado por la relación HUP. Aunque sus instrumentos puedan medir el momento con precisiones mucho más pequeñas, la relación HUP restringe la incertidumbre en p_x, para cada medición simultánea individual.
Esa es la razón por la que se utilizan deltas en el HUP en lugar de sigmas (el símbolo de error habitual). Uno de los dos está restringido mecánicamente cuánticamente para ser incierto en función del error de medición del otro.
Además, quiero solidificar aún más mi comprensión... Entonces, ¿puedo pensar que la buena curva de densidad de probabilidad que normalmente veo para la posición de una partícula es la gráfica ideal para un conjunto de un trillón de medidas, verdad? Suele ser gaussiano. La distribución depende del potencial que conecte a la función de onda. Sin embargo, la distribución calculada es "como si" hubiera realizado un millón de mediciones en un conjunto de sistemas preparados de manera idéntica. ¿Estoy aquí?
Puede obtener una buena probabilidad estadística gaussiana para la medida de x, siempre que esa sea su única medida. Si, para cada partícula, mide x con un error sigma específico en su medición y al mismo tiempo mide p_x, no podrá restringir la dispersión estadística de la medición de p_x dentro de la precisión posible de sus instrumentos. La dispersión será controlada por HUP.
Entonces, esta es la razón por la que cuando tiene "δx preciso", lo que significa un valor muy pequeño para δx", la dispersión de las medidas de posición es muy estrecha. Siguiendo el principio, DEBE terminar con una curva muy gruesa o ancha para la función de momento. porque su desviación estándar debe ser grande para preservar el principio.
La "desviación estándar" tiene un significado estadístico preciso. Lo que verá es la dispersión debida al HUP. Si hace lo contrario, requiere una gran precisión del instrumento para p_x, la posición x será incierta dentro de HUP y mostrará dispersión.
Motl de Luboš
QEnredo
Motl de Luboš