Detectores de coincidencia en las pruebas de Bell: ¿Qué tan cerca es lo suficientemente cerca?

¿Cuándo una coincidencia es una coincidencia? Sabemos que para identificar fotones entrelazados, la electrónica está configurada para buscar clics simultáneos en detectores opuestos. El tamaño de la ventana es hasta cierto punto arbitrario. Lo que me pregunto es:

Si ejecuta un experimento de entrelazamiento tipo Bell en el que obtiene, por ejemplo, 100 coincidencias por segundo con un intervalo de 100 picosegundos, ¿qué sucede si duplica la ventana a 200 picosegundos? ¿Esperas, en general, obtener 200 coincidencias por segundo? Se me ocurren tres posibles respuestas y me pregunto cuál es la más cierta:

  1. Si su ventana es lo suficientemente pequeña, no importa duplicar la ventana porque está identificando con precisión todas las partículas entrelazadas disponibles. Todavía obtiene 100 coincidencias por segundo (o posiblemente algunas más para recuentos de coincidencias verdaderamente esporádicos).

  2. Duplica la ventana, duplica las coincidencias. Obtienes 200 por segundo.

  3. Duplica la ventana y obtienes cuatro veces las coincidencias: 100 completamente en la primera mitad de la ventana, 100 en la segunda mitad y 200 "coincidencias cruzadas". 400 por segundo en total.

Espero que esta pregunta sea significativa y me pregunto cuál es la respuesta.

Respuestas (2)

Acerca de ± 1 nanosegundo Los datos se pueden visualizar trazando la diferencia entre los tiempos de los eventos en los dos extremos del experimento de Bell. Los datos del experimento de Gregor Weihs, Phys.Rev.Lett. 81, 5031 (1998), da como resultado el gráfico adjunto (de un archivo postscript incrustado, hay una versión en PDF mucho más clara aquí ) , que muestra una caída muy clara en la coincidencia fuera de un pequeño rango de diferencias de tiempo.Diferencia horaria de cada uno de los eventos de 'Alice' al evento de 'Bob' más cercano

El gráfico muestra la diferencia de tiempo de cada uno de los eventos de 'Alice al evento de 'Bob' más cercano, con solo eventos dentro de ± 3 nanosegundos mostrados. En el intervalo de tiempo de diez segundos que se muestra, son 14841 de un total de 388660 eventos de Alice. En muy pocos casos, hay más de un evento Bob dentro de los 3 nanosegundos del evento Alice marcado. Como puede ver, aumentando el ancho de la ventana de coincidencia de arriba ± 1 nanosegundo tendrá un impacto relativamente pequeño en el número de coincidencias. Los diferentes símbolos gráficos indican el resultado experimental de Alice para el evento particular de Alice sin mostrar el resultado experimental de Bob.

Lamento no tener datos comparables para un experimento diferente, por lo que no puedo decirles si diferentes aparatos experimentales muestran diferentes dependencias en el ancho de la ventana de coincidencia.

EDITAR: Como respuesta a los comentarios a continuación, un gráfico diferente, hecho hace tanto tiempo que no estoy seguro de que sea de los mismos datos, pero estoy bastante seguro de que las características son genéricas. 8192 diferencias horariasEstos gráficos (los gráficos 2 y 3 son solo el primer gráfico ampliado en el origen) trazan el i La diferencia horaria ordenada entre los TOE de Alice (Times Of Events) y el TOE de Bob más cercano para 8192 eventos de Alice. La clasificación de CTD (Diferencias de TOE más cercanas) hace que el gráfico aumente monótonamente. En este caso, solo hay 8192 eventos de Alice en lugar de los 388660 eventos de Alice en el " longdist34 " completo" conjunto de datos. En el segundo gráfico, hay menos de 400 eventos de Alice para los que el CTD correspondiente es inferior a aproximadamente 0,1 microsegundos; en el tercer gráfico, hay 135 eventos con CTD inferiores a 1 nanosegundo (los saltos se deben a que en en ese momento estaba trabajando con CTD con resolución de 1 nanosegundo, mientras que luego descubrí que hay más resolución en los datos; la resolución y las variaciones sistemáticas de las marcas de tiempo de los dos relojes en los tiempos de los eventos (que son los que se registran en el Los conjuntos de datos de Alice y Bob) son definitivamente problemas de comprensión, sin embargo, los ignoro aquí).

En el primer gráfico, se puede ver un aumento casi lineal desde 350 eventos hasta, digamos, alrededor de 5000 eventos, luego hay relativamente menos eventos que tienen diferencias de tiempo más largas. El límite es inevitable, porque los eventos de Bob rara vez están separados por largos intervalos de tiempo, por lo que es relativamente poco probable que el CTD más grande sea más largo que la separación de tiempo promedio entre los eventos de Bob. En este caso, el CTD más largo para 8192 eventos Alice es de aproximadamente 0,14 milisegundos. Creo que hay una respuesta en estos gráficos a sus preguntas complementarias en sus Comentarios a continuación (aunque una explicación gráfica, no lo que yo llamaría una explicación matemática).

Los datos aquí no son suficientes para caracterizar el estado del campo cuántico (u óptico cuántico) que emerge del cristal PDC. Eso requeriría varias medidas complementarias bien caracterizadas de lo que presumiblemente es una superposición arbitraria de múltiples estados de fotones. Las caracterizaciones adecuadas de tales medidas requieren una variedad de fuentes bien caracterizadas de múltiples estados de fotones. Como menciona Bjorn Wesen, el láser que impulsa el PDC no es la única causa de los eventos en el aparato, pero una separación en componentes como los recuentos de oscuridad térmica es una elección teórica delicada.
Una separación en fotones enredados y ordinarios no es estrictamente posible, en la medida en que cualquier evento de Alice que parezca no tener un evento de Bob correspondiente debe tomarse como una consecuencia de una falla en la detección del evento correspondiente. En particular, la fuente emite solo luz del doble de la frecuencia de la luz detectada, por lo que en el régimen de modelado cuántico el proceso no lineal implementado por el cristal PDC necesariamente divide cada fotón fuente en dos fotones.
Punto bien tomado. Pero, ¿ve lo que quiero decir con dos conjuntos de datos superpuestos, espero? La densidad de eventos fuera de la banda de 1 nanosegundo es demasiado constante para ser la cola de un Poisson puro. Si no son fotones ordinarios, ¿puedo especular que los fotones entrelazados vienen en dos variedades: estado singlete y triplete? ¿Quizás los fotones de estado triplete tienen un ancho de banda de transición más estrecho, por lo que son coherentes durante un marco de tiempo más largo?
sí, debe tener un piso de recuentos de no coincidencia tanto de los recuentos oscuros del detector en sí (debido a la excitación térmica) como de los fotones que llegan de algo más que el láser y el SPDC.
@bjorn bueno, ese es mi problema. Estoy tratando de reconciliar el número total de eventos de Alice (388860 durante 10 segundos) con la frecuencia observada de conteos dentro de la ventana de 3 nseg. Si asumo que todo lo que está fuera de la banda de 1 n-s se debe a conteos oscuros, entonces suponiendo que Poisson debería haber cerca de 4,000,000 de eventos de Alice en el intervalo de 10 segundos. (Según mi estimación aproximada: cuento alrededor de 200 eventos por segundo entre la banda de 1 nseg y 3 nseg). Así que tengo una discrepancia de un factor de 10 en la comprensión de los datos tal como se presentan.
para aclarar mi problema: para aproximar las estadísticas, tomo los 380,000 eventos de Alice informados (aproximadamente 40,000 por segundo) y encuentro que están espaciados en promedio 25000 nsegundos. Llamémoslos conteos oscuros por el bien del argumento. Luego pregunto: ¿con qué frecuencia ocurrirán dos recuentos oscuros adyacentes con una diferencia de 2,5 nsegundos? Puede ver que hay un factor de 10,000 aquí, lo que lleva a una estimación de alrededor de 4 coincidencias de conteo oscuro por segundo. Pero a partir del gráfico necesito justificar cerca de 200 coincidencias fuera de la banda de 1 nanosegundo. Entonces, ¿qué son?
No veo qué razones hay para suponer que la distribución debería ser Poisson. He subido el mismo gráfico, pero con límites de 100 ns, a pantheon.yale.edu/~pwm22/longdist34-Alice+-100ns.pdf . Verás que hay un efecto de eco en los datos, entre ± 20 ns, eso no se notó cuando aún existía el aparato experimental, y que no afecta la violación de las desigualdades de Bell-CHSH, pero que por lo demás la distribución de las diferencias de tiempo entre los eventos de Alice y el evento de Bob más cercano es más o menos uniforme. El efecto de eco es en sí mismo una desviación de Poisson.
Descartemos el extraño eco por ahora como un artefacto experimental. "Asumo" las estadísticas de Poisson porque no hay necesidad de explicar el comportamiento de Poisson ... simplemente "es". La clara desviación de Poisson, que sus nuevos datos sacan a la luz, significa que está ocurriendo algo de física inexplicable. Si extrapolamos: 15 000 eventos dentro de la banda de 3 nseg, 20 000 eventos dentro de la banda de 100 nseg... obtenemos todos los 400 000 eventos dentro de una banda de 8000 nseg, para un espacio promedio entre eventos de 4 microseg. Por lo tanto, deberíamos "esperar" alrededor de 2,5 millones de eventos de detección... no los 400.000 informados. ¿Lo que da?
Peter, tus nuevos datos proporcionan una casi confirmación tentadora de mi análisis de tus datos anteriores. Tiene una zona de 2-3 nseg de ancho de eventos "enredados" y una segunda zona del orden de 100 veces más ancha de coincidencias de "recuento oscuro". Ignorando la banda enredada, los eventos de "recuento oscuro" están, en promedio, separados por unos 10 mseg. Pero te falta la única pieza de datos que uniría todo: ¡el tiempo total transcurrido! 8000 eventos separados por 10 ms deberían sugerir un tiempo total transcurrido de 80 segundos. Este es el cálculo que no se alineó en su conjunto de datos anterior. ¿Tienes el tiempo transcurrido?
Este conjunto particular de 8192 eventos de Alice ocurrió en 0.204805015 segundos (esa es la diferencia entre el primer y el último TOE), muy cerca de 25 microsegundos por promedio de evento (creo que no significativamente). Esto proviene de un conjunto de datos ligeramente diferente de los otros gráficos, longdist35 en los datos de Gregor Weihs en lugar de longdist34, sin embargo, estos son bastante comparables. Menos de 1/20 de los eventos de Alicia tienen un evento de Bob en coincidencia.
Bien, mezclé micro y milisegundos, por lo que mi lectura del gráfico da un promedio de 10 microsegundos entre eventos, dentro de un factor de 2 más o menos con lo que muestran los datos revisados. Esto puede explicarse por el agrupamiento normal (distribución no Poisson de la luz térmica, etc.). Sigo pensando que la discrepancia (factor de seis) en el primer conjunto de puntos es un poco grande, especialmente considerando la cantidad de datos que me diste para trabajar.

Cada prueba de coincidencia se compara con la tasa de probabilidad accidental. Para encontrar la posibilidad, use solo un detector a la vez para leer las tasas de clics, R 1 y R 2 , para cada detector. Hay una ventana de tiempo, Δ t , dentro del cual usará para determinar tanto la tasa de probabilidad como la Δ t dentro de lo cual contarás como una coincidencia en tu experimento. La tasa de probabilidad es R 1 R 2 Δ t . Cuando ejecuta el experimento, utiliza un gráfico de diferencia de tiempo que debe verse como un pico en el medio del gráfico, que tiene una diferencia de tiempo de clic de cero entre los detectores. Aquí elegirás Δ t de modo que la mayor parte de ese pico se utilice para contar los clics coincidentes. Cualquier pico en ese gráfico significa que el experimento está leyendo mejor que el azar. He realizado muchos experimentos de este tipo, pero se emitía una "partícula" a la vez en lugar de las dos que se utilizan en una prueba típica de Bell.