Tasa de datos de Atlas y CMS, ¿los detectores del LHC son demasiado lentos?

¿Hay una pregunta técnica que siempre tengo curiosidad por hacerle a un experto del CERN? He leído, http://nordberg.web.cern.ch/PAPERS/JINST08.pdf , página 5,

que la tasa de muestreo de datos, la cantidad de imágenes fijas tomadas de las colisiones en el Atlas de detectores del LHC y el CMS son de aproximadamente 40 KHz y probablemente este número se actualice a 100 KHz a fines de este año cuando el LHC se reinicie con los haces de mayor luminosidad ( es decir, más colisiones por segundo, actualmente a 1 GHz). De estos 40 K/s (un evento fijo, muestreado cada 25 μs) a 100 K/s (un evento fijo cada 10 μs, actualizado a finales de este año) eventos de detección muestreados de las colisiones a través del sistema de disparo L1, solo se seleccionan 200 eventos/s y registrada como de importancia estadística. Todos los demás eventos muestreados se ignoran y eliminan. Por lo tanto, en el mejor de los casos, ¡un evento muestreado (todavía) cada 10 μs! (también, eventos registrados a 200 Hz, por lo tanto, aproximadamente un evento registrado lo más significativo posible cada 5 ms en promedio).

¿No cree que esta tasa es demasiado LENTA y que se podría perder un evento de decaimiento muy rápido y, por lo tanto, nunca se registraría un resultado estadísticamente significativo para un análisis posterior, especialmente ahora que estamos buscando nueva física de muy alta energía en dimensiones de el orden de 10E-17 cm?

Quiero decir que considero que esta tasa de muestreo utilizada es demasiado lenta, un cuello de botella y una probabilidad baja para capturar estas nuevas partículas hipotéticas de alta energía.

Por supuesto, esto podría solucionarse estadísticamente mediante el registro de datos durante muchos años, como el último LHCb posible relacionado con el descubrimiento potencial de leptoquarks 3.1σ. ¡Recolectaron estos datos durante los últimos 10 años! para llegar solo a 3.1σ:

https://physicsworld.com/a/tiene-una-nueva-partícula-llamada-leptoquark-sido-detectada-en-cern/

Pero, de nuevo, ¿qué pasa si la duración de un evento de decaimiento es mucho menor que 10 μs, una fracción del período de muestreo no implicaría que más y más eventos de colisión significativos se perderían cada vez más y más y más años de registro de eventos será necesario a medida que probamos energías cada vez más altas para llegar a un resultado estadísticamente significativo? ¿Quizás en el peor de los casos una función exponencial?

¿Cuál es la resolución de tiempo de vuelo de los sensores del detector? ¿Espero que esto sea una millonésima fracción de un picosegundo? ¿Bien?

Creo que los miembros del CERN son conscientes de este cuello de botella de los detectores y culpan a las limitaciones presupuestarias del CERN.

Una limitación aún mayor que la tasa de muestreo de datos es la tasa de almacenamiento de datos . Solo una pequeña fracción de los eventos registrados se puede almacenar para un análisis más detallado. Por lo tanto, es necesario programar algoritmos para decidir de forma rápida y automática qué eventos conservar para el análisis. Es absolutamente posible perder las firmas de la nueva física de este proceso y, por lo tanto, se requiere mucho trabajo para diseñar estos algoritmos para minimizar la probabilidad de que esto suceda. Aquí hay una revisión: annualreviews.org/doi/full/10.1146/annurev-nucl-102115-044713
Sin embargo, no soy un experto en CERN y esta no es una respuesta definitiva, solo se entiende como contexto.
Un comentario que podría ayudarlo a dormir tranquilo: no estamos registrando eventos a un ritmo más lento indiscriminadamente. Para aumentar las probabilidades de que captemos eventos interesantes, existen sistemas de activación. Los diferentes activadores están diseñados con diferentes búsquedas/análisis en mente y se activan en función de las firmas de eventos que se considerarían interesantes para las búsquedas/análisis relevantes. Entonces, el ritmo es lento pero no es lento y arbitrario, trata de priorizar eventos interesantes.
Sí, como el sistema de disparo L1. Pero aún queda la cuestión del diseño de los algoritmos de toma de decisiones de estos sistemas. Estas personas no deben ser solo programadores, sino también físicos de partículas expertos. ¿Cómo programa si no sabe lo que está buscando?
@ Markoul11 A menudo sabes lo que estás buscando. Por ejemplo, en el reciente indicio de violación del sabor de LHCb, lo que buscan es la descomposición de los mesones B. Estas desintegraciones de los mesones B se entienden bien, por lo que conocemos las firmas relevantes. El análisis está tratando de obtener la relación de las desintegraciones al canal de electrones y las de los canales de muones. No hay un evento desconocido separado que viole la universalidad del sabor que estamos buscando (donde no sabríamos nada sobre su firma). Y sí, las personas que diseñan disparadores son principalmente físicos, no programadores.
@DvijD.C. Sí, esta descomposición particular del mesón se conocía teóricamente hace muchos años. Pero, ¿qué pasa con las desintegraciones no predichas por la teoría conocida? ¿Qué salvaguardas (reglas) se colocan en los algoritmos para identificar posibles eventos significativos no predichos por la teoría?
@ Markoul11 Creo que esa podría ser su verdadera pregunta: "¿Qué garantías (reglas) se colocan en los algoritmos de muestreo en LHC para identificar posibles eventos significativos no predichos por la teoría?" Espero que le quede claro (pero no puedo decirlo por su pregunta) que la velocidad de grabación del detector no está realmente relacionada con las escalas de tiempo de la física que se está probando. El colisionador genera nuevos eventos a ~1 Ghz, la electrónica rastrea los productos de decaimiento a frecuencias de ~picosegundos, y luego una combinación de hardware y software selecciona eventos interesantes para registrar para su posterior análisis.
Al leer el artículo proporcionado por @Andrew, la tasa de eventos de grabación no es de 200 Hz sino de 1 KHz (cada 1 ms). Por lo tanto, tenemos desintegraciones de partículas de hasta picosegundos recopiladas en intervalos de 10 ms, por lo tanto, 100 000 imágenes fijas de eventos por segundo y de las cuales se almacenan los eventos de 1 000 por segundo más prometedores para su posterior análisis. Esa es una gran cantidad de información potencialmente interesante que falta en el 1G/s inicial --> 100K/s por un factor de 10E4. Perdemos el 99,99 % de los eventos de colisión. ¡Todo el tiempo! No es de extrañar que necesiten 10 años para recopilar los datos para obtener un resultado estadístico significativo de más de 3σ.
@ Markoul11 Como señala el enlace de Andrew: "La tasa de datos [sin procesar] (40 MHz × 1 MB = 40 TB s-1) es difícil de almacenar localmente en el detector o transmitir fuera del detector sin implementar un gran sistema de transmisión de datos que interferiría con el funcionamiento de los elementos críticos del detector". Esto es un poco un eufemismo. Pero creo que lo que realmente quieres saber es cuántos eventos interesantes probablemente se pierdan. La mayoría de los eventos no son interesantes, por lo que no obtiene estimaciones precisas de la pérdida de datos simplemente comparando frecuencias.

Respuestas (1)

Parece haber cierta confusión acerca de cómo funcionan los experimentos con colisionadores, en particular con la pregunta: "¿No cree que esta velocidad es demasiado LENTA y que podría pasarse por alto un evento de decaimiento muy rápido?" .

No hay relación entre la tasa de eventos y la tasa de decaimiento de un evento.

Estoy familiarizado con DESY, no con CERN, por lo que no tengo ningún número disponible (aparte de 27 km y 7 TeV), pero es así: los protones (contra) circulan en racimos, y los racimos chocan en momentos conocidos. Durante las colisiones, el detector busca eventos.

Cuando ocurre un evento, ya sea interesante, exótico, rápido o lento, todo atraviesa los detectores de manera ultra relativista, efectivamente en C , por lo que la duración del evento es el tamaño del detector dividido por C . (Ver nota 1 al final).

El problema empieza con los haces: son protones. Un protón de 7 TeV, en el marco del laboratorio, es básicamente un objeto bidimensional sin evolución temporal. Es como un panqueque plano, congelado, con 3 quarks de valencia y prácticamente un número ilimitado de fluctuaciones de vacío QCD de baja energía llamadas quarks marinos y gluones. Todos estos llevan una fracción de los 7 TeV de momento, y las cosas de menor energía tienen secciones transversales altas (debido a la unitaridad).

Eso significa que la mayoría de los eventos son colisiones de basura sin suficiente energía para investigar más allá del modelo estándar. Registrarlos haría imposible hacer cualquier física, ya que todos los sistemas detectores tienen un tiempo muerto después de la activación (no sé cuáles son los números en el LHC, pero incluso unos pocos nanosegundos significan que los detectores y los sistemas de lectura y escritura quedar paralizado con la basura).

Para evitar esto, existen varios niveles de activadores de hardware y software. Los disparadores de hardware solo miran AND, OR, NOT, XOR, etc. de puertas lógicas electrónicas que provienen directamente de los detectores (por lo que son rápidos). Pueden ser multinivel y multicanal (para diferentes procesos).

Si el hardware se activa, los datos van al software rápido (o quizás al firmware FPGA, primero), para un mayor filtrado. Eventualmente, un evento interesante le dice al sistema que guarde el evento.

Después de leer y registrar un evento, todo el sistema necesita tiempo para recuperarse, por lo que hay un tiempo mínimo hasta que se puede registrar el siguiente evento, que puede ser menor que el tiempo promedio entre eventos debido a cuellos de botella aguas abajo. Dado que muchos experimentos miden secciones transversales absolutas, corregir el tiempo muerto y las eficiencias de activación es enormemente complejo y requiere un sofisticado análisis de Monte Carlo y varias mediciones del sistema en la mesa de laboratorio.

Nota 1: Entonces quizás preguntes sobre producir un bosón masivo en reposo en el laboratorio. Simplemente se quedará allí hasta que se descomponga. El tiempo de vida de las partículas masivas es del orden del tiempo que tarda la luz en cruzar un protón, por lo que es irrelevante.

Además, aunque el COM de los protones es el marco de laboratorio, los quarks progenitores (o gluones) no tienen momentos opuestos iguales, ya que se seleccionan aleatoriamente de una gota de fluctuaciones de vacío QCD y quarks de valencia ocasionales.

Eso complica mucho el experimento, y es por eso que mi + mi los colisionadores son tan atractivos. Con ellos, los progenitores del evento se conocen exactamente, solo que no se pueden almacenar en un anillo de 27 km a 7 TeV gracias a la radiación de sincrotrón.

Gracias por esta descripción experta. ¿Qué sucede con las partículas que se desintegran antes de llegar a los sensores del detector? Tengo entendido que los sensores del detector tienen una resolución de tiempo de vuelo de picosegundos. Obviamente, no hay necesidad de que los sensores tengan una resolución de tiempo mayor que el tiempo que tardan las partículas en volar a lo largo del radio del detector a la velocidad de la luz c? ¿Un detector de sección de corte más pequeño pero con la misma energía de colisión de 14 TeV detectaría partículas de descomposición más cortas?