Estoy empezando a investigar cómo entendemos los datos de las colisiones de partículas.
Mi pregunta es, ¿cuáles son los algoritmos o formas en que estos detectores interpretan los datos? ¿Existen enfoques estándar? O si no, ¿cuáles son algunos buenos documentos o lugares para buscar para comenzar a aprender más sobre la implementación y/o los detalles de cómo funciona?
Hasta ahora no he buscado en ningún libro de texto, sino en muchos artículos en la web y esto fue algo útil para señalar dónde buscar:
http://arstechnica.com/science/2010/03/all-about-particle-smashers-part-ii/
Entonces, según tengo entendido hasta ahora, hay algunos "experimentos" LCH diferentes, que son estructuras físicas que están optimizadas para enfocarse en aspectos específicos de los datos de un evento de colisión. El detector mide todo tipo de emisiones de partículas y cambios en los campos eléctricos, y luego parece intentar retroceder y descubrir todos los eventos de emisión/desintegración que podrían haber tenido lugar en esa fracción de segundo.
Según tengo entendido hasta ahora, básicamente los programas de computadora utilizados para calcular estas posibles "vías de descomposición" deben usar algunos algoritmos estándar o algo así, y deben haber incorporado en ellos todas las posibles vías de emisión de partículas (como todos los posibles diagramas de Feynman si existe tal cosa).
¿Existen buenos recursos o algoritmos/enfoques estándar para comprender cómo los detectores de partículas analizan sus datos?
Los algoritmos utilizados son tantos como las configuraciones experimentales por los detectores utilizados en las configuraciones. Están construidos para adaptarse a los detectores y no al revés.
Los aspectos comunes son algunos
1) las partículas cargadas interactúan con la materia ionizándola y se construyen detectores donde se puede registrar el paso de una partícula ionizante. Puede ser una cámara de burbujas , una cámara de proyección de tiempo , un detector de vértices (de los cuales existen varios tipos). Estos se utilizan junto con fuertes campos magnéticos y la flexión de las pistas da el impulso de la partícula cargada.
2) Las partículas neutras son
a) fotones, y los calorímetros electromagnéticos los miden.
b) hadrónicos, es decir interactúan con la materia, y los calorímetros hadrónicos están diseñados para medir la energía de estos neutros
c) que interactúan débilmente, como los neutrinos, que solo pueden detectarse midiendo toda la energía y los momentos en caso de encontrar la energía y el momento faltantes.
Además están los detectores de muones, pistas cargadas que atraviesan metros de materia sin interactuar excepto electromagnéticamente y los detectores exteriores están diseñados para atraparlos.
Este es el detector CMS .
La complejidad de los detectores del LHC requiere estas enormes colaboraciones de 3000 personas que trabajan con un solo objetivo: obtener datos físicos del sistema. Los algoritmos son una parte necesaria de esta cadena y se fabrican a pedido utilizando los conceptos básicos de física que impulsan los detectores. Un ejemplo de la complejidad y la continua actualización y mejora de los algoritmos que entran en el análisis son los de definición y medida de un jet .
Como dice Curiousone, para comprender los algoritmos que ingresan en la reducción de datos de estos detectores, se necesita mucho esfuerzo. Seguro que se hacen a medida.
Bueno, si tiene tiempo... CERN tiene todos los informes de diseño técnico para sus detectores en línea en http://cds.cern.ch/ . Son un excelente material de lectura.
Comience con una búsqueda de "Informe de diseño técnico de ATLAS" e "Informe de diseño técnico de CMS" y avance a través de las referencias en esos documentos. Una vez que comprenda la geometría de los detectores (lo que no es poca cosa), puede comenzar a leer sobre "algoritmos de activación" y "algoritmos de reconstrucción". Es posible que deba aprender una o dos cosas sobre las interacciones entre partículas y el software de simulación GEANT.
Pequeña advertencia... me tomó casi dos años leer solo las partes que eran importantes para mi trabajo...
Hay diferentes capas de reconstrucción, en cada paso se reduce la cantidad de datos con el objetivo de inferir los momentos, tipo y dirección de las partículas producidas primero en la colisión:
Una vez que uno ha calculado estos depósitos 'por celda', se agrupan (la mayoría de los depósitos en el detector involucran un grupo de celdas adyacentes):
Ahora tenemos grupos de energía y huellas de partículas cargadas.
Ahora tenemos candidatos de partículas casi estables (aquellas que no se descomponen dentro del detector), es decir, conocemos el tipo (principalmente electrones, fotones, piones/kaones cargados, hadrones neutros), su energía/cantidad de movimiento y dirección.
Ahora que hemos reducido aún más las colisiones, se pueden formar combinaciones de partículas. La combinación que uno busca depende de cómo se sabe que se desintegra una partícula (o se espera que se desintegre en el caso de partículas aún no descubiertas). En este nivel, uno puede darse el lujo computacionalmente de probar todas las combinaciones posibles de partículas 'estables' para 'trepar por el árbol de descomposición'. Algunos ejemplos son:
En el siguiente nivel, uno tiene que separar la 'señal' (por ejemplo, nuevas partículas buscadas) del 'fondo' (procesos conocidos en las colisiones de protones y protones que se parecen a la señal):
Hay millones de variantes de los algoritmos anteriores y probablemente tantos parámetros para ajustar, optimizados para casos particulares, etc. Una gran parte del esfuerzo del análisis de datos en realidad se centra en sacar el máximo provecho del detector (después de que el detector entra en funcionamiento, no se puede mejorar más durante varios años).
Los códigos de simulación y reconstrucción están en el rango de millones de líneas de código.
Una limitación importante proviene del tiempo de CPU disponible, especialmente para la búsqueda de pistas, que es computacionalmente uno de los pasos más costosos. La compensación entre la resolución lograda (con qué precisión se puede medir el impulso/energía de una partícula) se vuelve importante en la segunda etapa de la reducción de la tasa en tiempo real ("disparador" -- de 100 000 colisiones por segundo a 1000 por segundo ). Se debe realizar una reconstrucción cruda de la colisión dentro de 100-200 ms para decidir si se debe guardar una colisión para el almacenamiento fuera de línea. Si una colisión se mantiene y se escribe en el disco, en unas pocas horas sigue una reconstrucción más sofisticada que puede tardar unos segundos por colisión.
nikos m.
dmckee --- gatito ex-moderador
Lanza
dmckee --- gatito ex-moderador
benrg
dmckee --- gatito ex-moderador
david z
Lanza
dmckee --- gatito ex-moderador