¿Es válido el Principio de Incertidumbre para información sobre el pasado?

Mi comprensión común del Principio de Incertidumbre es que no se puede determinar tanto la posición como el momento de una partícula en el mismo punto en el tiempo, porque medir una variable cambia la otra, y ambas no se pueden medir a la vez.

Pero, ¿qué sucede si mido una partícula cargada con cualquier cantidad de detectores durante un período de tiempo? ¿Puedo usar una multitud de medidas para inferir estas propiedades en algún momento del pasado? Si no, ¿qué tan cerca podemos llegar? Es decir, ¿qué tan precisa puede ser nuestra estimación?

Esto se parece mucho a los experimentos mentales de Leibniz y Newton cuando estaban creando cálculo. "¿Podemos medir la velocidad/posición de un objeto durante un solo instante? Si no, ¿qué tan cerca podemos estar?"
Según el principio de incertidumbre, cada uno de esos detectores tendrá que sacrificar la precisión en la medición de la posición frente a la velocidad, y cada uno afectará la posición o la velocidad en el proceso de tomar la medición. (No se puede detectar nada sin intercambio de energía). Un grupo de mediciones, cada una de las cuales tiene un error dentro de límites conocidos, y cada una de las cuales introduce un error en el sistema, no necesariamente suma menos error.
@keshlam, esto sería cierto si los valores fueran todos inexactos e imprecisos. Esto es en términos científicos, no en términos sencillos como usted usa, donde "exactitud" es lo mismo que "precisión". Cuando los números son inexactos, no se redondean al número "correcto", no tienen un promedio correcto cuando se toman en conjunto, etc., mientras que parece simplemente insinuar que no podemos medirlos a un número aceptable. de dígitos. ¿Estás insinuando que este es el caso?
Estoy diciendo que la incertidumbre más la incertidumbre no es igual a una mayor certeza, y que el experimento tal como se describe también parece introducir un error tal que el promedio probablemente no tenga sentido.
Cualquiera que sea el detector que utilice cambiará el estado de la partícula, haciendo que todas las demás mediciones muestren resultados erróneos. Es tan simple como eso.
La incertidumbre cuantifica la medida de un estado dado. Una medida "colapsa" la función de onda, es decir, la proyecta a un estado específico, por lo que cambia su evolución posterior . Luego, las mediciones subsiguientes ensayarán una función de onda diferente para un estado diferente, y no es fácil inferir correlaciones para dos estados diferentes como estos, como Vercas indica anteriormente.

Respuestas (2)

El principio de incertidumbre debe entenderse de la siguiente manera: la posición y el momento de una partícula no están bien definidos al mismo tiempo. Mecánicamente cuántica, esto se expresa a través del hecho de que los operadores de posición y momento no conmutan: [ X , pags ] = i .

La explicación más intuitiva, para mí, es pensar en términos de dualidad onda-partícula. De Broglie introdujo la idea de que cada partícula también exhibe las propiedades de una onda. La longitud de onda determina entonces el impulso a través de

pags = h λ
dónde λ es la longitud de onda de De Broglie asociada con la partícula. Sin embargo, cuando uno piensa en una ola, está claro que no será fácil atribuirle una posición al objeto descrito por ella. De hecho, se necesita una superposición específica de ondas para crear una onda que sea esencialmente cero en todas partes excepto en alguna posición. X . Sin embargo, si se crea un paquete de ondas de este tipo, se pierde información sobre la longitud de onda exacta (ya que una onda con una sola longitud de onda bien definida simplemente se extenderá por todo el espacio). Por lo tanto, existe una limitación inherente para conocer la longitud de onda (es decir, el momento) y la posición de una partícula. A un nivel más técnico, se podría decir que el principio de incertidumbre es simplemente una consecuencia de la dualidad onda-partícula combinada con las propiedades de la transformada de Fourier. La incertidumbre se precisa mediante el famoso principio de incertidumbre de Heisenberg,
σ X σ pags 2
De manera más general, para dos observables que no computan A y B (representado por operadores hermitianos), el principio de incertidumbre generalizada dice
σ A 2 σ B 2 ( 1 2 i [ A , B ] ) 2     σ A σ B | [ A , B ] | 2
Aquí, σ denota la desviación estándar y el valor esperado. Esto se mantiene en cualquier momento. Por lo tanto, la medición que ocurre ahora mismo, que haya ocurrido en el pasado o que ocurra en el futuro no tiene nada que ver con eso: el principio de incertidumbre siempre se cumple.

Esto realmente no responde la pregunta. El último párrafo comienza, pero no va muy lejos. Por lo tanto, no le doy un voto positivo o negativo.

Encontré este gran artículo ( https://arxiv.org/abs/0906.1605 ) investigando este tema yo mismo. La respuesta corta es no, el principio de incertidumbre no se aplica al pasado de la misma manera que se aplica a las medidas actuales. Es posible "actualizar" nuestra mejor conjetura para la posición y el momento de una partícula hecha en el momento t 0 en algún momento posterior t 1 > t 0 a medida que hacemos nuevas mediciones. Las nuevas mediciones informan la probabilidad de que un conjunto específico de condiciones en t 0 estaban presentes más allá del límite normal del principio de incertidumbre, pero es importante reconocer que siempre queda algo de incertidumbre (me hace pensar en el programa de Truman; no importa cuán real y consistente parezca su versión de los hechos, ¿puede estar realmente seguro de que no es todo? ¿una conspiración masiva o una coincidencia?). Parece probable que haya alguna formulación o extensión del principio de incertidumbre que limita este conocimiento histórico, pero hasta ahora no he podido encontrarlo. Podría valer un papel si no hay uno ya.