En su libro popsci, "Partícula al final del universo", Sean Carroll dice que el LHC, debido a su gran capacidad de recopilación de información, necesariamente necesita descartar por completo la mayoría de los datos que recopila.
Me preguntaba cómo se hizo esto, separando los eventos "interesantes" del resto.
Carroll dice que entre las técnicas de hardware y software, solo varios cientos de eventos por segundo, de los muchos millones producidos por segundo , se mantienen registrados para un análisis completo.
¿Es un algoritmo de coincidencia de patrones que se usa para analizar los datos, en cuyo caso las personas involucradas, tanto teóricos como experimentadores, usan esto como una guía de cómo se verían los eventos "extraños"?
Estoy seguro de que estoy dudando de los años combinados de experiencia de miles de teóricos y experimentadores aquí. Además, ciertamente no tengo los antecedentes para hacer la pregunta en términos específicos.
Pero, en general, si un evento exótico produce una firma que es realmente nueva para nosotros, como la materia oscura o un miembro de una cuarta generación de partículas, ¿cómo podemos estar seguros de no haberlo pasado por alto si no sabemos qué buscar en primer lugar?
Por supuesto, la respuesta podría ser, por ejemplo, debido a la producción de energía del LHC, tenemos límites en cuanto a lo que es posible y realmente sabemos qué esperar en cualquier rango en particular. Me pregunto si existe la posibilidad de que nos perdamos algo tan importante como el Higgs.
Los eventos en los detectores de física de alta energía que no pueden producir datos útiles, principalmente porque son el resultado de eventos de dispersión suave, son descartados por múltiples capas de circuitos de disparo. Lo que hacen estos circuitos está prescrito por los llamados menús de activación, que se basan en predicciones teóricas sobre una gran cantidad de tipos de eventos físicos conocidos e hipotéticos.
Como observa correctamente, si ocurre un evento exótico que es marcadamente diferente de cualquiera de los tipos de eventos que están cubiertos por los menús de disparo, entonces puede perderse en el disparo. Para protegerse contra una pérdida completa de tales eventos, hay menús de activación preescalados (como uno en mil, diez mil o un millón de cruces de grupos, etc.) que permiten que los datos fluyan a través de menos sesgos o completamente imparciales por suposiciones sobre la estructura del evento. Sin embargo, uno tiene que hacer una compensación entre la tasa de eventos posteriores al disparo y la cantidad de estos eventos preescalados; de lo contrario, la adquisición de datos, el almacenamiento y, especialmente, las canalizaciones de análisis de datos se verán inundados con datos probablemente inútiles. Al final, esto significa que los eventos exóticos suficientemente raros pueden pasar desapercibidos, después de todo.
Si desea ver qué tan complejo es todo esto en realidad, le sugiero que eche un vistazo, por ejemplo, a este informe de diseño técnico de ATLAS cern.ch/atlas-proj-hltdaqdcs-tdr/tdr-v1-r4/PDF/TDR- 2up.pdf. Ese es solo uno de los documentos de nivel superior. Para conocer el sistema en detalle habría que leer cientos de papers e informes técnicos internos, por supuesto.
usuario81619
curioso
dmckee --- gatito ex-moderador
usuario81619
curioso