El Modelo Estándar de la física de partículas es inmensamente exitoso. Sin embargo, tiene muchos parámetros de entrada ajustados experimentalmente (por ejemplo, las masas de fermiones, ángulos de mezcla, etc.). ¿Qué tan en serio podemos tomar el éxito del Modelo Estándar cuando tiene tantos parámetros de entrada?
A primera vista, si un modelo tiene muchos parámetros de entrada, puede ajustarse a una gran cantidad de datos. ¿Existen predicciones cualitativas y, lo que es más importante, cuantitativas del modelo estándar que sean independientes de estos parámetros ajustados experimentalmente? Una vez más, no dudo del éxito de SM, pero esta es una preocupación que me gustaría abordar y desmitificar.
Es inexacto pensar que todo el modelo estándar de física de partículas se determinó a través de experimentos. Está léjos de la verdad. La mayoría de las veces, las predicciones teóricas de la física de partículas se confirmaron posteriormente de forma experimental y, con bastante frecuencia, con una precisión muy alta.
Por ejemplo, los físicos teóricos predijeron la existencia de la y bosones y sus masas, el bosón de Higgs, la existencia de gluones y muchas de sus propiedades antes de que estas partículas fueran detectadas. Pauli postuló la existencia del neutrino para explicar la conservación de energía en la desintegración beta, antes de que se observara el neutrino. El momento magnético anómalo del electrón, cuyo valor fue predicho por Julian Schwinger, concuerda con el experimento hasta en 3 partes en . La violación de la paridad en la interacción débil, predicha por Lee y Yang, fue posteriormente confirmada experimentalmente. La predicción del positrón por parte de Dirac, fue detectada cuatro años después por Anderson.
La lista sigue y la lista es enorme. . Podría decirse que la física de partículas es la teoría física más exitosa porque una y otra vez sus predicciones fueron confirmadas posteriormente por experimentos con una precisión sorprendentemente alta (aunque a veces nuestras teorías necesitaban mejorarse para explicar algunos detalles de los datos experimentales). Puede que esté sesgado por mi formación teórica en física de partículas, pero siempre he estado de acuerdo en que el modelo estándar es el modelo matemáticamente más hermoso, profundo y profundo de toda la física. Esto se refleja en su poder predictivo casi milagrosamente preciso.
Algunos más de los aspectos más destacados:
1935 Hideki Yukawa propuso la fuerza fuerte para explicar las interacciones entre los nucleones .
1947 Hans Bethe utiliza la renormalización por primera vez.
1960 Yoichiro Nambu propone SSB (rotura de simetría quiral) en la interacción fuerte.
1964 Peter Higgs y Francois Englert, proponen el mecanismo de Higgs.
1964 Murray Gell-Mann y George Zweig establecieron la base del modelo de quarks.
1967 Steven Weinberg y Abdus Salam proponen la interacción/unificación electrodébil.
El modelo estándar puede tener muchos parámetros, pero también habla de muchas cosas, cada una de las cuales generalmente solo involucra una cantidad muy limitada de parámetros. Por ejemplo , el tiempo de vida del muón
Estoy seguro de que alguien objetará mi fórmula para tiene un tiempo en el LHS y una masa inversa en el RHS, está usando unidades naturales y debe leer
El LHC ha producido 2.852 publicaciones a día de hoy: 24 de septiembre de 2021. Digamos que cada publicación tiene 5 parcelas. Cada parcela tiene 50 puntos. Redondearemos eso hasta 1,000,000 de puntos de datos, junto con una comparación con la teoría.
¿Qué fracción de datos de física de partículas es LHC? 1%? No sé. La física de partículas comenzó en 1908 con la teoría de Rutherford. experimento. Digamos que LHC es el 0,1% de todos los datos.
Eso significa mil millones de puntos de datos explicados con parámetros libres. Recuerdo , pero tal vez ha cambiado. Wikipedia dice . No sé sobre eso.
De cualquier manera, la cantidad de datos sobre órdenes de magnitud de energía, involucrando todas las formas conocidas de materia, en EM, sectores débiles y fuertes, explicada por tan pocos parámetros es extraordinaria.
A pesar de las cosas oscuras .
La cuestión, en última instancia, no es de física, sino de estadística. Es por una buena razón que la física de partículas sigue siendo uno de los pocos campos de la física donde la estadística todavía se practica en un nivel avanzado (en muchos otros campos, la alta precisión de las mediciones redujo la necesidad del análisis estadístico para calcular las desviaciones estándar). En particular, el capítulo de estadística en PRD es un excelente curso acelerado sobre análisis estadístico.
¿Cuántos parámetros son muchos?
En física, estamos acostumbrados a modelos en los que el número de parámetros se puede contar con los dedos, porque nuestro objetivo es comprender las interacciones/procesos/etc. elementales. La descripción de cualquier fenómeno del mundo real da como resultado necesariamente la combinación de muchos elementos y el uso de más parámetros. Los modelos usados en ingeniería, por ejemplo, para diseñar aviones, o en la planificación gubernamental contienen cientos o miles de parámetros. La gran promesa del aprendizaje automático se debe a la capacidad computacional moderna para usar modelos con millones de parámetros, que a menudo tienen un significado muy oscuro (para los humanos), pero aún funcionan muy bien, como vemos en las fotos de etiquetado de Facebook o la calidad creciente de Google. traducir.
¿Cuántos datos?
Si tenemos demasiados parámetros depende de la cantidad de datos que tengamos. La regla general es tener más puntos de datos que parámetros. Sin embargo, los enfoques más basados en principios se basan en la probabilidad de observar datos, dados nuestros valores de parámetros:
Ahora, si nuestro modelo es bueno, la probabilidad aumentará a medida que aumentamos la cantidad de datos (el número de puntos de datos), aunque este aumento no es estrictamente monótono, debido a los efectos aleatorios. Si esto no sucede, nuestro modelo no es bueno, quizás es demasiado simplista, tiene muy pocos parámetros, esto se denomina subajuste .
Comparando modelos
Dada una gran cantidad de datos, el modelo con más parámetros generalmente dará como resultado una mayor probabilidad; aquí es donde radica el problema planteado en el OP. Permítanme señalar de paso que nunca podemos probar o refutar un modelo por sí mismo, sino que comparamos diferentes modelos y elegimos uno mejor. Un modelo con más parámetros puede ser simplemente mejor, porque aporoxima mejor la realidad física. Pero tal modelo puede dar como resultado una mayor probabilidad simplemente porque tenemos más parámetros para ajustar; esto es lo que llamamos sobreajuste .
Se han desarrollado métodos para corregir el número de parámetros al corregir el modelo. Uno de los más conocidos es el criterio de información de Akaike (AIC), en el que se comparan cantidades
dónde es el número de parámetros de un modelo . Se considera entonces que el modelo con el valor más bajo de AIC es el que obtiene los mejores resultados con el menor número de parámetros.
Para que este simple criterio no parezca demasiado intuitivo, permítanme señalar que justificarlo rigurosamente requiere bastante matemática. Existen también versiones más elaboradas, así como criterios alternativos, como el criterio de información bayesiano (donde se reemplaza por su logaritmo).
Así es como se hace la elección del mejor modelo en pocas palabras. La física interviene en la formulación de los modelos lógicamente motivados para elegir. Sospecho que, si nos fijamos en las publicaciones en la época en que se formuló el modelo estándar, hubo bastantes propuestas alternativas, y probablemente aún más se mencionaron en las discusiones entre los científicos. Sin embargo, la belleza de la física es que permite reducir significativamente la elección de modelos, como alternativa a los enfoques de aprendizaje automático, donde todos los modelos posibles son iguales y la elección se basa únicamente en su compatibilidad con los datos.
Si usted tiene parámetros de entrada en una teoría determinista que puede encajar perfectamente como máximo puntos de datos simplemente ajustando esos parámetros. En una teoría probabilística eso es más sutil, pero hay una asociación similar. Independientemente de cuántos parámetros necesite el modelo estándar, es mucho menos de lo que sería necesario para ajustar el 1 petabyte de datos recopilados en el LHC por segundo.
Deberíamos tomarnos en serio el modelo estándar porque tiene un poder predictivo exquisito
Tengo ganas de concentrarme en los muchos parámetros de entrada manual en el modelo estándar y se pierde el bosque por los árboles. No hay ningún requisito para que las leyes de la naturaleza se ajusten a nuestras ideas de cómo debería ser una teoría. El árbitro final de la teoría es si hace predicciones comprobables. Dado que el modelo estándar es tan bueno en eso, debemos tomarlo en serio.
30 parámetros impares no es grande en comparación con 30 mil, o de hecho 30 millones. Por supuesto, a los físicos les gustaría reducir el número de parámetros a uno solo, o incluso a ninguno. Sin embargo, podemos tomarlo en serio debido a su éxito experimental. Una derivación matemáticamente más elegante del modelo estándar pasa por la geometría no conmutativa. Esto produce el modelo completo, incluida la mezcla de neutrinos de forma naturalmente geométrica, incluso si no es conmutativa.
Tubo
ana v
Barmar
mitchell portero
Lodino
Tomás
Tomás
eric torres