¿Qué tan en serio podemos tomar el éxito del Modelo Estándar cuando tiene tantos parámetros de entrada?

El Modelo Estándar de la física de partículas es inmensamente exitoso. Sin embargo, tiene muchos parámetros de entrada ajustados experimentalmente (por ejemplo, las masas de fermiones, ángulos de mezcla, etc.). ¿Qué tan en serio podemos tomar el éxito del Modelo Estándar cuando tiene tantos parámetros de entrada?

A primera vista, si un modelo tiene muchos parámetros de entrada, puede ajustarse a una gran cantidad de datos. ¿Existen predicciones cualitativas y, lo que es más importante, cuantitativas del modelo estándar que sean independientes de estos parámetros ajustados experimentalmente? Una vez más, no dudo del éxito de SM, pero esta es una preocupación que me gustaría abordar y desmitificar.

La idea es usar un subconjunto de parámetros conocidos para predecir los demás y luego compararlos con experimentos, ver por ejemplo las pruebas de precisión electrodébil.
Tal vez esta respuesta mía aclare el uso de constantes derivadas physics.stackexchange.com/q/262917 de datos en teorías físicas también esta physics.stackexchange.com/q/54184
Creo que todavía es una pregunta abierta cuántos de estos parámetros son realmente independientes. Uno de los objetivos de la "Teoría del Todo" es reducirlos.
El número de parámetros se debe al número de campos fundamentales. Tiene tres campos de calibre, cada uno con su propio acoplamiento, tiene una docena de fermiones fundamentales, cada uno con su propia masa, etc. ¿Cree que la cantidad de campos fundamentales es un desafío para la credibilidad del modelo estándar?
¿Cuántos resultados cuantitativos se podrían producir sin ajustar experimentalmente ninguna constante? Ninguno. La cantidad de parámetros gratuitos es problemática para SM, pero la redacción de la pregunta es bastante extraña para mí al menos. ¿Qué tan en serio puede tomar el éxito de la gravedad newtoniana si se necesitan 3 "parámetros ajustados experimentalmente" para determinar la aceleración de caída libre en la superficie de la Tierra (y también considere cómo se probó en ese momento, y cuando se hizo ampliamente aceptado!). Además, estas constantes no desaparecen simplemente a medida que el modelo se refina: en su lugar, se convierten en parámetros estructurales...
¿No hay ningún modelo matemático que tenga parámetros de entrada que modelen cualquier cosa con cierto grado de precisión? Piense en Lotka-Volterra, o intente modelar matemáticamente algún otro fenómeno que ocurra en la ingeniería y obtenga un buen acuerdo cuantitativo. Es más el número que está en SM lo que no le gusta a la gente, que el hecho de que existan. Solo el hecho de tener parámetros ajustados no es filosóficamente preocupante, que yo sepa (podría estar equivocado).
Por ejemplo, una vez estudié un modelo matemático simple para el flujo de tráfico en las rotondas. solía 3 parámetros de entrada, entonces, ¿por qué uno esperaría que no hubiera parámetros de entrada en un modelo como el Modelo Estándar que describe muchos fenómenos físicos dispares con un grado muy alto de precisión?
¿Cuántos cientos de mesones y hadrones predichos a partir de un par de docenas de parámetros contarían como "exitosos"?

Respuestas (7)

Es inexacto pensar que todo el modelo estándar de física de partículas se determinó a través de experimentos. Está léjos de la verdad. La mayoría de las veces, las predicciones teóricas de la física de partículas se confirmaron posteriormente de forma experimental y, con bastante frecuencia, con una precisión muy alta.

Por ejemplo, los físicos teóricos predijeron la existencia de la W ± y Z bosones y sus masas, el bosón de Higgs, la existencia de gluones y muchas de sus propiedades antes de que estas partículas fueran detectadas. Pauli postuló la existencia del neutrino para explicar la conservación de energía en la desintegración beta, antes de que se observara el neutrino. El momento magnético anómalo del electrón, cuyo valor fue predicho por Julian Schwinger, concuerda con el experimento hasta en 3 partes en 10 13 . La violación de la paridad en la interacción débil, predicha por Lee y Yang, fue posteriormente confirmada experimentalmente. La predicción del positrón por parte de Dirac, fue detectada cuatro años después por Anderson.

La lista sigue y la lista es enorme. 1 . Podría decirse que la física de partículas es la teoría física más exitosa porque una y otra vez sus predicciones fueron confirmadas posteriormente por experimentos con una precisión sorprendentemente alta (aunque a veces nuestras teorías necesitaban mejorarse para explicar algunos detalles de los datos experimentales). Puede que esté sesgado por mi formación teórica en física de partículas, pero siempre he estado de acuerdo en que el modelo estándar es el modelo matemáticamente más hermoso, profundo y profundo de toda la física. Esto se refleja en su poder predictivo casi milagrosamente preciso.


1 Algunos más de los aspectos más destacados:
1935 Hideki Yukawa propuso la fuerza fuerte para explicar las interacciones entre los nucleones .
1947 Hans Bethe utiliza la renormalización por primera vez.
1960 Yoichiro Nambu propone SSB (rotura de simetría quiral) en la interacción fuerte.
1964 Peter Higgs y Francois Englert, proponen el mecanismo de Higgs.
1964 Murray Gell-Mann y George Zweig establecieron la base del modelo de quarks.
1967 Steven Weinberg y Abdus Salam proponen la interacción/unificación electrodébil.


Hay una dialéctica entre experimento y teoría. La teoría explica el experimento y sugiere qué preguntas deben hacerse y, por lo tanto, qué experimentos deben realizarse. Mientras que el experimento nos dice dónde nuestra teoría es correcta y dónde está equivocada. Hay tres cuestiones pendientes más significativas en física: la materia oscura, la energía oscura y la gravedad cuántica. Experimento ha establecido los dos primeros. Esto último no es probable por experimentación debido a las limitaciones de la tecnología actual y es por eso que existe tanta controversia sobre las teorías de la gravedad cuántica. Esto muestra por qué experimentar...
... sigue siendo enormemente importante en la física. No llegaremos muy lejos sin él.
Sí, por supuesto que el experimento es crucial en física.
¡No olvide la inferencia de antimateria de Dirac!
Estoy de acuerdo con el gran valor del Modelo estándar, pero la historia está mucho más equilibrada entre la teoría y el experimento de lo que sugiere esta respuesta. Ha habido muchas sorpresas experimentales y una lista de aspectos destacados del trabajo teórico omite las muchas otras propuestas teóricas que resultaron ser inútiles o engañosas.
Vale la pena mencionar cuántas de estas predicciones no fueron intuitivas o previstas, simplemente surgen de las matemáticas del modelo estándar en bruto, una vez que los valores de fenómenos completamente no relacionados se utilizan para determinar una cantidad relativamente pequeña de parámetros. Y luego, algunas de esas predicciones, de masas de partículas e interacciones, resultan no solo ser reales, sino que también se predicen con una precisión asombrosa.
@Stilez Eso es exactamente cierto. Esperaba que eso estuviera implícito en la respuesta. De hecho, agregaré tus puntos cuando tenga algo de tiempo. Gracias.
He notado que la gente a veces pone énfasis en el experimento sobre la teoría. Si lees los artículos en la década de 1960 donde algo de esto estaba surgiendo, fue clave que se estaban realizando exploraciones teóricas que condujeron al teorema de Goldstone, bosones de Nambu-Goldstone sin masa, ruptura de simetría espontánea, etc., y luego, antes de eso, el trabajo de Zumino. en electrodinámica bidimensional, etc.
@joseph h--¡Tienes razón! Debería haber mirado las etiquetas en la pregunta en cuestión. En el contexto correcto, mis comentarios fueron totalmente idiotas, así que los eliminaré de inmediato. (Estoy obsesionado con la cosmología, que ha reemplazado todo lo demás en mis lecturas, pero bastante cojo con la física de partículas, que obviamente ha tenido muchas aplicaciones terrestres exitosas y, por supuesto, se incorporó al modelo inspirador de Guth). Sinceramente aprecio me estás llamando la atención sobre este error.
@Edouard jajaja. No es un problema. He sido culpable de lo mismo. Borraré mis respuestas también. Salud.

El modelo estándar puede tener muchos parámetros, pero también habla de muchas cosas, cada una de las cuales generalmente solo involucra una cantidad muy limitada de parámetros. Por ejemplo , el tiempo de vida del muón

τ m = 6144 π 3 METRO W 4 gramo 4 metro m 5
depende solo de METRO W , gramo , metro m ( gramo es el acoplamiento isospín débil) y la vida útil del tauón τ τ satisface
τ τ τ m = 1 3 ( | V tu d | 2 + | V tu s | 2 ) + 2 metro m 5 metro τ 5 ,
que solo depende de | V tu d | , | V tu s | , metro m , metro τ . Entonces, estas dos predicciones necesitan seis parámetros, lo que en sí mismo no suena tan impresionante. Pero eso pierde el punto aquí. La pizarra completa de predicciones SM utiliza todos los parámetros en una variedad de subconjuntos, creando un sistema de muchas, muchas más ecuaciones simultáneas que parámetros tenemos. Si (para tomar una estimación discutida aquí) hay 37 parámetros, no es como si estuviéramos ajustando un grado- 36 polinomio y = pag ( X ) por OLS . Es más como requerir los mismos coeficientes para ajustarse simultáneamente a muchos problemas de regresión diferentes.

Estoy seguro de que alguien objetará mi fórmula para τ m tiene un tiempo en el LHS y una masa inversa en el RHS, está usando unidades naturales y debe leer

τ m = C 2 6144 π 3 METRO W 4 gramo 4 metro m 5
en unidades SI para exponer el uso de dos parámetros más C , . Tenga en cuenta, sin embargo, que ambos tienen valores SI exactos por definición . De todos modos, realmente no afecta el argumento.

Y no olvide el poder predictivo del Modelo Estándar. Predice casi toda la física con gran precisión en escalas que van desde subatómicas hasta intergalácticas.
@AccidentalTaylorExpansion subatómica bien, pero ¿macroscópica/intergaláctica? ¿Me puede dar un par de ejemplos?

El LHC ha producido 2.852 publicaciones a día de hoy: 24 de septiembre de 2021. Digamos que cada publicación tiene 5 parcelas. Cada parcela tiene 50 puntos. Redondearemos eso hasta 1,000,000 de puntos de datos, junto con una comparación con la teoría.

¿Qué fracción de datos de física de partículas es LHC? 1%? No sé. La física de partículas comenzó en 1908 con la teoría de Rutherford. 197 A tu ( α , α ) 197 A tu experimento. Digamos que LHC es el 0,1% de todos los datos.

Eso significa mil millones de puntos de datos explicados con norte parámetros libres. Recuerdo norte = 37 , pero tal vez ha cambiado. Wikipedia dice norte = 19 . No sé sobre eso.

De cualquier manera, la cantidad de datos sobre órdenes de magnitud de energía, involucrando todas las formas conocidas de materia, en EM, sectores débiles y fuertes, explicada por tan pocos parámetros es extraordinaria.

A pesar de las cosas oscuras .

Su punto está bien entendido, pero para que conste, la mayoría de esos puntos de datos no son independientes entre sí (distribuciones de frotis de resolución de energía, los mismos parámetros medidos una y otra vez), lo que reduce su estimación en muchos órdenes de magnitud. Aún así, un gran número en comparación con la cantidad de parámetros libres.
@rfl son solo los mismos parámetros si el modelo es correcto. La medición del ángulo de Weinberg en LEP frente a la violación de la paridad en los orbitales atómicos podría no tener ninguna relación en un modelo estándar alternativo (e incorrecto).
Seguro. Pero incluso una determinada relación de ramificación o vida útil, etc., se mide una y otra vez en publicaciones (con suerte, cada vez más precisas).
Mientras iba a Saint-Genis-Pouilly, encontré una colaboración con 2.852 publicaciones...
Los 19 parámetros de Wikipedia no incluyen la masa de los neutrinos. Con masa de neutrino es 26. Algunas personas no cuentan θ QCD lo que lo lleva a 18 o 25.

La cuestión, en última instancia, no es de física, sino de estadística. Es por una buena razón que la física de partículas sigue siendo uno de los pocos campos de la física donde la estadística todavía se practica en un nivel avanzado (en muchos otros campos, la alta precisión de las mediciones redujo la necesidad del análisis estadístico para calcular las desviaciones estándar). En particular, el capítulo de estadística en PRD es un excelente curso acelerado sobre análisis estadístico. 

¿Cuántos parámetros son muchos? 

En física, estamos acostumbrados a modelos en los que el número de parámetros se puede contar con los dedos, porque nuestro objetivo es comprender las interacciones/procesos/etc. elementales. La descripción de cualquier fenómeno del mundo real da como resultado necesariamente la combinación de muchos elementos y el uso de más parámetros. Los modelos usados ​​en ingeniería, por ejemplo, para diseñar aviones, o en la planificación gubernamental contienen cientos o miles de parámetros. La gran promesa del aprendizaje automático se debe a la capacidad computacional moderna para usar modelos con millones de parámetros, que a menudo tienen un significado muy oscuro (para los humanos), pero aún funcionan muy bien, como vemos en las fotos de etiquetado de Facebook o la calidad creciente de Google. traducir.

¿Cuántos datos? 

Si tenemos demasiados parámetros depende de la cantidad de datos que tengamos. La regla general es tener más puntos de datos que parámetros. Sin embargo, los enfoques más basados ​​en principios se basan en la probabilidad de observar datos, dados nuestros valores de parámetros:

PAG ( D | θ ) .
El modelo en este contexto es el medio de expresar matemáticamente esta relación entre los parámetros y los datos.

Ahora, si nuestro modelo es bueno, la probabilidad aumentará a medida que aumentamos la cantidad de datos (el número de puntos de datos), aunque este aumento no es estrictamente monótono, debido a los efectos aleatorios. Si esto no sucede, nuestro modelo no es bueno, quizás es demasiado simplista, tiene muy pocos parámetros, esto se denomina subajuste .

Comparando modelos 

Dada una gran cantidad de datos, el modelo con más parámetros generalmente dará como resultado una mayor probabilidad; aquí es donde radica el problema planteado en el OP. Permítanme señalar de paso que nunca podemos probar o refutar un modelo por sí mismo, sino que comparamos diferentes modelos y elegimos uno mejor. Un modelo con más parámetros puede ser simplemente mejor, porque aporoxima mejor la realidad física. Pero tal modelo puede dar como resultado una mayor probabilidad simplemente porque tenemos más parámetros para ajustar; esto es lo que llamamos sobreajuste .

Se han desarrollado métodos para corregir el número de parámetros al corregir el modelo. Uno de los más conocidos es el criterio de información de Akaike (AIC), en el que se comparan cantidades

A I C = k METRO registro PAG ( D | METRO ) ,

dónde k METRO es el número de parámetros de un modelo METRO . Se considera entonces que el modelo con el valor más bajo de AIC es el que obtiene los mejores resultados con el menor número de parámetros.

Para que este simple criterio no parezca demasiado intuitivo, permítanme señalar que justificarlo rigurosamente requiere bastante matemática. Existen también versiones más elaboradas, así como criterios alternativos, como el criterio de información bayesiano (donde k METRO se reemplaza por su logaritmo). 

Así es como se hace la elección del mejor modelo en pocas palabras. La física interviene en la formulación de los modelos lógicamente motivados para elegir. Sospecho que, si nos fijamos en las publicaciones en la época en que se formuló el modelo estándar, hubo bastantes propuestas alternativas, y probablemente aún más se mencionaron en las discusiones entre los científicos. Sin embargo, la belleza de la física es que permite reducir significativamente la elección de modelos, como alternativa a los enfoques de aprendizaje automático, donde todos los modelos posibles son iguales y la elección se basa únicamente en su compatibilidad con los datos.

Si usted tiene norte parámetros de entrada en una teoría determinista que puede encajar perfectamente como máximo norte puntos de datos simplemente ajustando esos parámetros. En una teoría probabilística eso es más sutil, pero hay una asociación similar. Independientemente de cuántos parámetros necesite el modelo estándar, es mucho menos de lo que sería necesario para ajustar el 1 petabyte de datos recopilados en el LHC por segundo.

Deberíamos tomarnos en serio el modelo estándar porque tiene un poder predictivo exquisito

Tengo ganas de concentrarme en los muchos parámetros de entrada manual en el modelo estándar y se pierde el bosque por los árboles. No hay ningún requisito para que las leyes de la naturaleza se ajusten a nuestras ideas de cómo debería ser una teoría. El árbitro final de la teoría es si hace predicciones comprobables. Dado que el modelo estándar es tan bueno en eso, debemos tomarlo en serio.

30 parámetros impares no es grande en comparación con 30 mil, o de hecho 30 millones. Por supuesto, a los físicos les gustaría reducir el número de parámetros a uno solo, o incluso a ninguno. Sin embargo, podemos tomarlo en serio debido a su éxito experimental. Una derivación matemáticamente más elegante del modelo estándar pasa por la geometría no conmutativa. Esto produce el modelo completo, incluida la mezcla de neutrinos de forma naturalmente geométrica, incluso si no es conmutativa.

"Esto produce el modelo completo, incluida la mezcla de neutrinos de una manera naturalmente geométrica, incluso si no es conmutativa". ¿Puedes dar una referencia?
@mithusengupta123: Mire el libro Geometría no conmutativa , de Alain Connes y Mathilda Marcolli.
@MoziburUllah, no debe mencionar el trabajo de Connes sin un descargo de responsabilidad obligatorio de que no es una investigación convencional.
@Profe. Legoslav: No creo que esto sea necesario, incluso Witten ha analizado la geometría no conmutativa. Además, mucho del trabajo realizado en ciencia no es convencional.
@MoziburUllah es necesario. No convencional no significa incorrecto, estoy de acuerdo en esto. Pero no podemos engañar a personas como OP: debemos ser honestos sobre lo que está confirmado y lo que no. Downvoted puramente por esto.