¿Por qué el modelo estándar debería ser renormalizable?

Las teorías efectivas como los modelos de Little Higgs o el modelo de Nambu-Jona-Lasinio no son renormalizables y no hay problema con ello, ya que una teoría efectiva no necesita ser renormalizable. Estas teorías son válidas hasta una escala Λ (corte ultravioleta), después de esta escala, una teoría efectiva necesita una terminación UV, una teoría más "general".

El Modelo Estándar, como una teoría efectiva de la física de partículas, necesita una teoría más general que aborde los fenómenos más allá del Modelo Estándar (¿una terminación UV?). Entonces, ¿por qué el modelo estándar debería ser renormalizable?

Algunas respuestas dicen que el SM no es renormalizable. Esto se puede decir en diferentes sentidos, por lo que sería útil que las respuestas profundicen en este punto en particular.
@arivero: Creo que debe quedar claro que los términos no renormalizables fluirán a términos cada vez (exponencialmente) más pequeños en el reescalado de infrarrojos.

Respuestas (5)

La respuesta corta es que no tiene por qué serlo, y probablemente no lo sea. La forma moderna de entender cualquier teoría cuántica de campos es como una teoría de campos efectiva. La teoría incluye todos los operadores renormalizables (relevantes y marginales), que dan la mayor contribución a cualquier proceso de baja energía. Cuando esté interesado en procesos de alta precisión o alta energía, también debe incluir sistemáticamente términos no renormalizables, que provienen de una teoría más completa.

En los días en que se construyó el modelo estándar, las personas no tenían una buena apreciación de las teorías de campo efectivas y, por lo tanto, la renormalizabilidad se impuso como un principio profundo y no completamente entendido. Esta es una de las dificultades para estudiar QFT, tiene una larga historia que incluye ideas que fueron reemplazadas (muchos otros ejemplos: ecuaciones de onda relativistas, segunda cuantización y un montón de conceptos erróneos sobre el significado de la renormalización). Pero ahora sabemos que se espera que cualquier QFT, incluido el modelo estándar, tenga estos operadores de mayor dimensión. Al medir sus efectos, obtiene una idea de cuál es la escala de alta energía en la que se descompone el modelo estándar. Hasta ahora, parece una escala realmente alta.

Estoy de acuerdo en que no tiene que ser así, pero estoy un poco confundido por la parte "no es" de esta respuesta. Ciertamente, el SM en la forma convencional incluye solo interacciones renormalizables de dimensión cuatro o menos, ¿no? Y si bien hay masas de neutrinos que podrían describirse mediante interacciones no renormalizables, también pueden describirse mediante interacciones renormalizables en una extensión simple del SM mediante la introducción de neutrinos dextrógiros, un campo de Higgs singlete SM y el uso del mecanismo de balancín. Entonces, ¿no es una exageración decir que el SM definitivamente no es renormalizable, o me estoy perdiendo algo?
Jeff, buen punto, lo edité al más débil "probablemente no lo es".
-1 --- El modelo estándar ciertamente es renormalizable, 'tHooft lo demostró. He hablado con algunas personas que vivieron la era, y al menos algunos de ellos entendieron muy bien que si encuentran una teoría renormalizable, entonces sería válida hasta escalas esencialmente arbitrarias, tal vez hasta la longitud de Planck. Esta fue una de las principales motivaciones para encontrar una teoría renormalizable.
@Ron Maimon: ¿Pensé que el problema más grande es la super-renormalización? Entonces, cosas como la masa de Higgs no son buenas porque requerirían un ajuste fino; por lo tanto, una terminación a escala UV/Planck, aunque teóricamente posible, requeriría algunas cancelaciones fantásticas que no son naturales.
@genneth: super-renormalizabilidad significa ajuste fino de la masa de Higgs. Ese es el único ajuste fino en el modelo estándar no supersimétrico, y hay formas de evitarlo. Probablemente sea mejor esperar unos meses hasta que tengamos datos sobre el sector de Higgs antes de especular. Podría ser tan simple como un nuevo campo de calibre fuerte cuya escala de confinamiento es un TeV. También puede ser supersimetría, y eso sería teóricamente más interesante. Lo sabremos por el LHC. Pero un ajuste fino no es un problema serio, especialmente dadas las correcciones conocidas.
@RonMaimon sí, es renormalizable (lo que significa que cada término de la expansión de pertubación se puede hacer finito), pero puede que no sea finito (la suma de todos los términos de pertubación podría conducir al infinito), ¿quizás esto es a lo que apuntaba el OP?

el modelo estándar resulta ser perturbativamente renormalizable, lo cual es una ventaja, como discutiré más adelante; de manera no perturbadora, uno descubriría que la autointeracción de Higgs y/o la hipercarga tu ( 1 ) la interacción se fortalecería a energías más altas y se toparían con inconsistencias como los polos de Landau en escalas de energía transplanckianas extremadamente altas.

Pero los modelos en los que el escalar de Higgs se reemplaza por un mecanismo más complicado no son renormalizables. Ese no es un problema letal porque la teoría aún puede usarse como una teoría efectiva válida. Y las teorías efectivas pueden no ser renormalizables, no tienen razón para no serlo.

La razón por la que los físicos prefieren las teorías de campos renormalizables es que son más predictivas. Las predicciones de una teoría de campo renormalizable solo dependen de un número finito de parámetros de baja energía que pueden determinarse mediante una comparación con los experimentos. Debido a que con un valor fijo de los parámetros de baja energía como los acoplamientos y las masas, una teoría renormalizable puede extrapolarse de manera única a escalas arbitrariamente altas (y sigue siendo predictiva a escalas arbitrariamente altas), también significa que si postulamos que la nueva la física solo ocurre en una escala de corte extremadamente alta Λ , todos los efectos de la nueva física son suprimidos por poderes positivos de 1 / Λ .

Esta suposición hace que la vida sea controlable y ha sido cierto en el caso de QED. Sin embargo, nada garantiza que obtengamos "inmediatamente" la descripción correcta que sea válida para una escala de energía arbitrariamente alta. Al estudiar la física de partículas a escalas de energía cada vez más altas, podemos igualmente desenmascarar solo otra capa de la cebolla que se descompondría a energías ligeramente más altas y necesita ser reparada por otra capa.

Mi conjetura personal es que es más probable que cualquier campo extra importante o acoplamiento que identifiquemos a bajas energías esté inherentemente descrito por una teoría de campo renormalizable, de hecho. Eso es por la siguiente razón: si encontramos una descripción efectiva válida a escala de energía mi 1 que pasa a ser no renormalizable, se descompone en una escala de energía ligeramente más alta mi 2 donde la nueva física lo completa y soluciona el problema. Sin embargo, este escenario implica que mi 1 y mi 2 tienen que estar bastante cerca uno del otro. Por otro lado, deben estar "lejos" porque solo logramos descubrir la física en la parte inferior, mi 1 escala de energía

Los pequeños modelos de Higgs sirven como un buen ejemplo de cómo se evita este argumento. Ajustan las cosas, mediante el uso de varios grupos de indicadores, etc., para separar las escalas. mi 1 y mi 2 para que sólo describan lo que está pasando en mi 1 pero pueden ignorar lo que está pasando en mi 2 que soluciona los problemas en mi 1 . Encuentro este truco como una forma de ajuste que es exactamente tan indeseable como el "problema de la pequeña jerarquía" que fue una motivación importante de estos modelos en primer lugar.

La historia tiene un registro mixto: QED permaneció esencialmente renormalizable. La teoría electrodébil puede completarse, paso a paso, hasta convertirse en una teoría renormalizable (p. ej., mediante los argumentos de unitaridad del árbol). El QCD también es renormalizable. Sin embargo, es importante mencionar que las interacciones débiles solían ser descritas por las interacciones de cuatro fermiones de Fermi-Gell-Mann-Feynman, que no era renormalizable. La separación de escalas mi 1 y mi 2 en mi argumento anterior ocurre porque partículas como los neutrones, que se descomponen en beta, son aún mucho más ligeras que los bosones W que luego se descubrió que subyacen a las interacciones de cuatro fermiones. Esta separación garantizó que los bosones W se encontraran décadas después de la interacción de los cuatro fermiones. Y esta separación depende en última instancia de que los acoplamientos de Yukawa de los quarks arriba y abajo sean mucho más pequeños que uno. Si el mundo fuera "realmente natural", tales jerarquías de los acoplamientos serían casi imposibles. Mi argumento se mantendría y casi todas las teorías válidas que la gente descubriría al elevar la escala de energía serían renormalizables.

La relatividad general es un gran ejemplo en el lado no renormalizable y seguirá siéndolo porque la teoría correcta que describe la gravedad cuántica no es ni puede ser una teoría cuántica de campo local de acuerdo con las definiciones antiguas. A medida que uno se acerca a la escala de Planck, la importancia de las teorías de campos efectivos no renormalizables aumenta claramente porque no hay ninguna razón por la que deban ser válidas para escalas de energía demasiado altas: en la escala de Planck, son reemplazadas por el cuántico sin campo. teoría de la gravedad.

Todo lo mejor, LM

El modelo estándar es renormalizable debido a la enorme brecha de energía entre la escala de la física del acelerador y la escala de la física de Planck/GUT. Que esta brecha es real lo atestigua la pequeñez de todas las correcciones no renormalizables al modelo estándar.

  • Masas de neutrinos: son de dimensión 5, por lo que son muy sensibles a la nueva física. Las masas medidas son consistentes con una supresión de escala GUT de términos no renormalizables y descartan grandes dimensiones adicionales de inmediato.
  • CP fuerte: las interacciones fuertes son invariantes de CP solo porque no hay interacciones no renormalizables de quarks y gluones, o interacciones directas quark-quark-lepton-lepton. Incluso el ángulo theta renormalizable conduce a una CP fuerte.
  • Decaimiento del protón: si el modelo estándar falla a pequeña escala, el protón se desintegrará. La descomposición del protón es imposible de suprimir por completo porque la cancelación de anomalías del modelo estándar lo requiere, por lo que debe permitir que el instante SU (2) vincule quarks y leptones con seguridad. Si intenta hacer una teoría con grandes dimensiones adicionales, puede hacer algunos trucos para suprimir la descomposición de protones, pero requieren acoplamientos SU (2) y U (1) para comenzar a funcionar como locos por debajo de un TeV.

Estos hechos observados significan que existe un verdadero desierto entre un TeV y la escala GUT. También existen estas restricciones mucho más débiles, que son suficientes para descartar la no normalización de la escala TeV:

  • Momento magnético del muón: la escala de las anomalías observadas son las que se esperan de partículas extra cargadas, no de un término fundamental de muón pauli. Si la escala de no renormalizabilidad fuera un TeV, el término de Pauli sería mucho mayor que el error experimental sin algunos ajustes.
  • Corrientes neutras que cambian el sabor: también requieren algunos ajustes finos para que funcionen con una escala baja de no renormalización, pero no sé cómo funcionan muy bien, así que me remito a la literatura.

Alrededor del año 2000, físicos incompetentes comenzaron a argumentar que se trata de un pequeño número de problemas y que, en realidad, no sabemos nada en absoluto. De hecho, la razón por la que los teóricos se rompieron la cabeza para encontrar un modelo renormalizable es porque sabían que dicho modelo sería esencialmente preciso para energías arbitrariamente grandes y sería una pista real para la escala de Planck.

Porque sucede que estamos trabajando en la escala de energía correcta. En general, si hay interacciones renormalizables, dominan sobre las no renormalizables, mediante argumentos de escalado simples y análisis dimensional. Antes de que se desarrollara la teoría electrodébil, la teoría de Fermi de las interacciones débiles no era renormalizable porque las principales interacciones que la gente veía eran el decaimiento beta, que es un operador de dimensión 6, y la estructura de los bosones W y Z aún no se había descubierto. Ahora tenemos una energía lo suficientemente alta como para ver las interacciones renormalizables subyacentes responsables de esto.

Si hay otras partículas pesadas que no conocemos, seguramente habrá operadores de mayor dimensión que deberíamos agregar al modelo estándar. El hecho de que aún no hayamos visto sus efectos es algo que nos preocupa a los que esperamos pronto descubrimientos....

Editar : debo agregar que, dado que sabemos que los neutrinos tienen masa, el modelo estándar ya no es realmente una teoría renormalizable. No es que esto sea relevante para la mayor parte de la física de partículas la mayor parte del tiempo.

El modelo estándar es un objeto matemático bien definido --- es una teoría sin masas de neutrinos. Puede estar mal experimentalmente, pero es renormalizable.
Eh Estoy bastante seguro de que cualquier teoría de campo efectivo que reemplace el modelo estándar e incorpore masas de neutrinos se llamará modelo estándar. Eso es solo lenguaje humano.

El modelo estándar no necesita ser renormalizable. Su finalización debe ser.