¿Hay una pregunta técnica que siempre tengo curiosidad por hacerle a un experto del CERN? He leído, http://nordberg.web.cern.ch/PAPERS/JINST08.pdf , página 5,
que la tasa de muestreo de datos, la cantidad de imágenes fijas tomadas de las colisiones en el Atlas de detectores del LHC y el CMS son de aproximadamente 40 KHz y probablemente este número se actualice a 100 KHz a fines de este año cuando el LHC se reinicie con los haces de mayor luminosidad ( es decir, más colisiones por segundo, actualmente a 1 GHz). De estos 40 K/s (un evento fijo, muestreado cada 25 μs) a 100 K/s (un evento fijo cada 10 μs, actualizado a finales de este año) eventos de detección muestreados de las colisiones a través del sistema de disparo L1, solo se seleccionan 200 eventos/s y registrada como de importancia estadística. Todos los demás eventos muestreados se ignoran y eliminan. Por lo tanto, en el mejor de los casos, ¡un evento muestreado (todavía) cada 10 μs! (también, eventos registrados a 200 Hz, por lo tanto, aproximadamente un evento registrado lo más significativo posible cada 5 ms en promedio).
¿No cree que esta tasa es demasiado LENTA y que se podría perder un evento de decaimiento muy rápido y, por lo tanto, nunca se registraría un resultado estadísticamente significativo para un análisis posterior, especialmente ahora que estamos buscando nueva física de muy alta energía en dimensiones de el orden de 10E-17 cm?
Quiero decir que considero que esta tasa de muestreo utilizada es demasiado lenta, un cuello de botella y una probabilidad baja para capturar estas nuevas partículas hipotéticas de alta energía.
Por supuesto, esto podría solucionarse estadísticamente mediante el registro de datos durante muchos años, como el último LHCb posible relacionado con el descubrimiento potencial de leptoquarks 3.1σ. ¡Recolectaron estos datos durante los últimos 10 años! para llegar solo a 3.1σ:
https://physicsworld.com/a/tiene-una-nueva-partícula-llamada-leptoquark-sido-detectada-en-cern/
Pero, de nuevo, ¿qué pasa si la duración de un evento de decaimiento es mucho menor que 10 μs, una fracción del período de muestreo no implicaría que más y más eventos de colisión significativos se perderían cada vez más y más y más años de registro de eventos será necesario a medida que probamos energías cada vez más altas para llegar a un resultado estadísticamente significativo? ¿Quizás en el peor de los casos una función exponencial?
¿Cuál es la resolución de tiempo de vuelo de los sensores del detector? ¿Espero que esto sea una millonésima fracción de un picosegundo? ¿Bien?
Creo que los miembros del CERN son conscientes de este cuello de botella de los detectores y culpan a las limitaciones presupuestarias del CERN.
Parece haber cierta confusión acerca de cómo funcionan los experimentos con colisionadores, en particular con la pregunta: "¿No cree que esta velocidad es demasiado LENTA y que podría pasarse por alto un evento de decaimiento muy rápido?" .
No hay relación entre la tasa de eventos y la tasa de decaimiento de un evento.
Estoy familiarizado con DESY, no con CERN, por lo que no tengo ningún número disponible (aparte de 27 km y 7 TeV), pero es así: los protones (contra) circulan en racimos, y los racimos chocan en momentos conocidos. Durante las colisiones, el detector busca eventos.
Cuando ocurre un evento, ya sea interesante, exótico, rápido o lento, todo atraviesa los detectores de manera ultra relativista, efectivamente en , por lo que la duración del evento es el tamaño del detector dividido por . (Ver nota 1 al final).
El problema empieza con los haces: son protones. Un protón de 7 TeV, en el marco del laboratorio, es básicamente un objeto bidimensional sin evolución temporal. Es como un panqueque plano, congelado, con 3 quarks de valencia y prácticamente un número ilimitado de fluctuaciones de vacío QCD de baja energía llamadas quarks marinos y gluones. Todos estos llevan una fracción de los 7 TeV de momento, y las cosas de menor energía tienen secciones transversales altas (debido a la unitaridad).
Eso significa que la mayoría de los eventos son colisiones de basura sin suficiente energía para investigar más allá del modelo estándar. Registrarlos haría imposible hacer cualquier física, ya que todos los sistemas detectores tienen un tiempo muerto después de la activación (no sé cuáles son los números en el LHC, pero incluso unos pocos nanosegundos significan que los detectores y los sistemas de lectura y escritura quedar paralizado con la basura).
Para evitar esto, existen varios niveles de activadores de hardware y software. Los disparadores de hardware solo miran AND, OR, NOT, XOR, etc. de puertas lógicas electrónicas que provienen directamente de los detectores (por lo que son rápidos). Pueden ser multinivel y multicanal (para diferentes procesos).
Si el hardware se activa, los datos van al software rápido (o quizás al firmware FPGA, primero), para un mayor filtrado. Eventualmente, un evento interesante le dice al sistema que guarde el evento.
Después de leer y registrar un evento, todo el sistema necesita tiempo para recuperarse, por lo que hay un tiempo mínimo hasta que se puede registrar el siguiente evento, que puede ser menor que el tiempo promedio entre eventos debido a cuellos de botella aguas abajo. Dado que muchos experimentos miden secciones transversales absolutas, corregir el tiempo muerto y las eficiencias de activación es enormemente complejo y requiere un sofisticado análisis de Monte Carlo y varias mediciones del sistema en la mesa de laboratorio.
Nota 1: Entonces quizás preguntes sobre producir un bosón masivo en reposo en el laboratorio. Simplemente se quedará allí hasta que se descomponga. El tiempo de vida de las partículas masivas es del orden del tiempo que tarda la luz en cruzar un protón, por lo que es irrelevante.
Además, aunque el COM de los protones es el marco de laboratorio, los quarks progenitores (o gluones) no tienen momentos opuestos iguales, ya que se seleccionan aleatoriamente de una gota de fluctuaciones de vacío QCD y quarks de valencia ocasionales.
Eso complica mucho el experimento, y es por eso que los colisionadores son tan atractivos. Con ellos, los progenitores del evento se conocen exactamente, solo que no se pueden almacenar en un anillo de 27 km a 7 TeV gracias a la radiación de sincrotrón.
Andrés
Andrés
youpilat13
Markoul11
youpilat13
Markoul11
usuario1504
Markoul11
usuario1504