¿Existe una posibilidad significativa de que el LHC pierda partículas o eventos "exóticos"?

En su libro popsci, "Partícula al final del universo", Sean Carroll dice que el LHC, debido a su gran capacidad de recopilación de información, necesariamente necesita descartar por completo la mayoría de los datos que recopila.

Me preguntaba cómo se hizo esto, separando los eventos "interesantes" del resto.

Carroll dice que entre las técnicas de hardware y software, solo varios cientos de eventos por segundo, de los muchos millones producidos por segundo , se mantienen registrados para un análisis completo.

¿Es un algoritmo de coincidencia de patrones que se usa para analizar los datos, en cuyo caso las personas involucradas, tanto teóricos como experimentadores, usan esto como una guía de cómo se verían los eventos "extraños"?

Estoy seguro de que estoy dudando de los años combinados de experiencia de miles de teóricos y experimentadores aquí. Además, ciertamente no tengo los antecedentes para hacer la pregunta en términos específicos.

Pero, en general, si un evento exótico produce una firma que es realmente nueva para nosotros, como la materia oscura o un miembro de una cuarta generación de partículas, ¿cómo podemos estar seguros de no haberlo pasado por alto si no sabemos qué buscar en primer lugar?

Por supuesto, la respuesta podría ser, por ejemplo, debido a la producción de energía del LHC, tenemos límites en cuanto a lo que es posible y realmente sabemos qué esperar en cualquier rango en particular. Me pregunto si existe la posibilidad de que nos perdamos algo tan importante como el Higgs.

Respuestas (1)

Los eventos en los detectores de física de alta energía que no pueden producir datos útiles, principalmente porque son el resultado de eventos de dispersión suave, son descartados por múltiples capas de circuitos de disparo. Lo que hacen estos circuitos está prescrito por los llamados menús de activación, que se basan en predicciones teóricas sobre una gran cantidad de tipos de eventos físicos conocidos e hipotéticos.

Como observa correctamente, si ocurre un evento exótico que es marcadamente diferente de cualquiera de los tipos de eventos que están cubiertos por los menús de disparo, entonces puede perderse en el disparo. Para protegerse contra una pérdida completa de tales eventos, hay menús de activación preescalados (como uno en mil, diez mil o un millón de cruces de grupos, etc.) que permiten que los datos fluyan a través de menos sesgos o completamente imparciales por suposiciones sobre la estructura del evento. Sin embargo, uno tiene que hacer una compensación entre la tasa de eventos posteriores al disparo y la cantidad de estos eventos preescalados; de lo contrario, la adquisición de datos, el almacenamiento y, especialmente, las canalizaciones de análisis de datos se verán inundados con datos probablemente inútiles. Al final, esto significa que los eventos exóticos suficientemente raros pueden pasar desapercibidos, después de todo.

Si desea ver qué tan complejo es todo esto en realidad, le sugiero que eche un vistazo, por ejemplo, a este informe de diseño técnico de ATLAS cern.ch/atlas-proj-hltdaqdcs-tdr/tdr-v1-r4/PDF/TDR- 2up.pdf. Ese es solo uno de los documentos de nivel superior. Para conocer el sistema en detalle habría que leer cientos de papers e informes técnicos internos, por supuesto.

Sí, y la vida es corta. Sé que esta pregunta habrá sido considerada por aquellos que saben MUCHO más que yo, solo que Carroll omitió lo que para mí merecía más un tratamiento más largo que podría haberme enseñado algo de física de partículas. Sin embargo, eso es popsci para ti, a veces te hace pensar por ti mismo y a veces te deja frustrado, con solo un atisbo de respuesta. Gracias por eso
@AcidJazz: Puedo decirle que el diseño de estos menús de activación fue un gran problema a principios y mediados de la década de 1990 (basado, por supuesto, en décadas de experiencia y teoría previas), incluso cuando los detectores aún estaban en la fase de diseño. Realmente ni siquiera es posible diseñar un detector funcional sin comprender primero la estructura del evento. Afortunadamente, cada experimento puede basarse en la física aprendida de los anteriores, por lo que la mayor parte de esto es en realidad una teoría muy bien establecida... pero la cantidad de trabajo intelectual que se dedica a estos cálculos y simulaciones es absolutamente impresionante.
@AcidJazz Además de los comentarios de CouriousOnes, la consideración de lo que debería estar en los factores desencadenantes, cómo estructurar las decisiones desencadenantes y cuántos eventos mínimos y sin sesgo se deben tomar está sujeto a consideración continua. además, partes del sistema de activación se ejecutan en FPGA, por lo que son posibles cambios sustanciales de tipo. El sistema en uso en estos días es asombrosamente flexible en comparación con los que me apoyé hace menos de dos décadas.
@dmckee Está muy, muy lejos de Wilson y sus fotos de cámara de niebla. Pregunté cómo funcionaban los disparadores pero, para ser honesto, parece que se necesitaría todo el sitio para cubrir ese proceso solo. Debe ser más que un poco frustrante, aunque necesario, dejar pasar tantos datos, sabiendo que un registro podría tener algo realmente nuevo que decirnos.
@AcidJazz: dmckee dio excelentes pistas. Los activadores modernos son tablas de canales programables, reconfigurables a través de diseños de hardware programables y algunos niveles son programas que se ejecutan en el hardware del servidor. Los disparadores están evolucionando y se están actualizando. Sin embargo, lo interesante que sucedió en el LHC fue que las estimaciones iniciales de cuántos eventos debían procesarse eran aproximadamente diez veces más de lo que están procesando en este momento. En parte, eso se debió a estimaciones físicas demasiado entusiastas. Incluso con la tecnología de 1995 podríamos haber procesado mucho más de lo que hacemos hoy, pero no se considera necesario.