Me falta el punto de renormalización en QFT

Soy un novato de qft que estudia Quantum Field Theory: An Integrated Approach de Fradkin, y en la sección 13 analiza las correcciones de un ciclo al potencial efectivo

tu 1 [ Φ ] = norte = 1 1 norte ! Φ norte Γ 1 norte ( 0 , . . . , 0 )

y como la primera D / 2 Los términos son divergentes donde D es la dimensionalidad.

Luego, el libro discute que la solución a esto es definir la masa renormalizada m 2 = Γ ( 2 ) ( 0 ) y constante de acoplamiento renormalizada gramo = Γ ( 4 ) ( 0 ) , y luego se encuentran expresiones que relacionan la masa desnuda con la masa renormalizada, y expresiones que relacionan la constante de acoplamiento desnuda con la constante renormalizada, donde las integrales ahora solo se ejecutan en un límite UV Λ . Luego, el potencial efectivo se escribe en términos de la masa renormalizada y la constante de acoplamiento renormalizada, y el resultado es mágicamente finito.

En algún lugar de este proceso estoy un poco perdido. En primer lugar , en realidad no veo intuitivamente la motivación para definir la masa renormalizada y la constante de acoplamiento como la función de vértice de dos y cuatro puntos en momentos externos cero. ¿Cuál es la motivación detrás de esto? En segundo lugar , siento que estoy un poco perdido acerca de cómo el potencial efectivo resultante después de todo esto se vuelve finito. Supongo que puedo ver matemáticamente que el resultado es finito, pero no lo entiendo en absoluto. ¿En qué punto de nuestro esquema surge realmente la finitud? ¿Cuál es el punto en todo esto?

Algunos de nosotros encontramos útil considerar estos ejemplos mucho más simples de renormalización como una cura para las divergencias, de la mecánica cuántica no relativista de partículas de un solo punto: Gosdzinsky y Tarrach, Aprendiendo la teoría del campo cuántico a partir de la mecánica cuántica elemental, y Mead y Godines, Una teoría analítica . Ejemplo de renormalización en mecánica cuántica bidimensional .
Se eliminaron varios comentarios. Para responder a una pregunta, publique una respuesta.

Respuestas (2)

Aquí está la cosa: la renormalización y las divergencias no tienen nada que ver entre sí. Son nociones conceptualmente no relacionadas.

Renormalización

En pocas palabras, la renormalización es una consecuencia de las no linealidades. Cualquier teoría (aparte de las que son lineales) requiere renormalización. Incluso en la mecánica newtoniana clásica.

Renormalización significa: cuando cambias una interacción, los parámetros de tu teoría cambian. El ejemplo más simple es el oscilador (an)armónico clásico. Di que empiezas con L = 1 2 metro q ˙ 2 1 2 k q 2 . Si prepara este sistema en un laboratorio, observará que q oscila con frecuencia ω 2 = k / metro . Ahora, supongamos que agrega la interacción (no lineal) γ q 4 a tu Lagrangiano. La frecuencia que vas a medir en un laboratorio ya no es ω 2 = k / metro , sino más bien ω 2 k / metro + γ .

Este fenómeno trivial también ocurre en la mecánica cuántica, en particular QFT. Por lo general, tiene un conjunto de parámetros medidos, como ω arriba, y un conjunto de coeficientes en su Lagrangiano, como k , metro . Estos últimos no son directamente observables. Resolver tu teoría te da una función ω = F ( k , metro , ) para algunos F . Puede utilizar el valor medido de ω , y la función calculable F , para fijar el valor de sus parámetros Lagrangianos metro , k , . Si cambia su Lagrangiano agregando un nuevo término, la función F cambiará, y por lo tanto el valor de sus parámetros metro , k , cambiará. Por supuesto, ω permanece igual, ya que esto es algo que mides en un laboratorio (y no importa qué Lagrangiano estés usando para modelar la dinámica).

Por ejemplo, supongamos que tiene un QFT que describe una partícula. El sistema tendrá varios parámetros. C 1 , C 2 , , que multiplica los diferentes términos en tu Lagrangiano, digamos L = ( ϕ ) 2 C 1 ϕ 2 C 2 ϕ 4 + . Este Lagrangiano predice que hay una partícula con cierta masa metro = F ( C 1 , C 2 , ) , dónde F es una función que se obtiene resolviendo la teoría (digamos, usando diagramas de Feynman). El valor de metro se fija mediante experimentos, se puede medir en un laboratorio. A partir de este valor medido, y la forma conocida de la función F , puede fijar el valor de sus parámetros dependientes del modelo C i . Por ejemplo, si comienza con el modelo L = ( ϕ ) 2 C 1 ϕ 2 , entonces la función F toma la forma metro = C 1 , y por lo tanto el valor de C 1 es idéntico a lo que mides metro ser. Si toma, en cambio, L = ( ϕ ) 2 C 1 ϕ 2 C 2 ϕ 4 , entonces ahora tienes metro = C 1 + 3 dieciséis π C 2 + O ( C 2 2 ) . Usando esto (y algún otro observable medido, como una sección transversal), puede fijar el valor de C 1 , C 2 . Tenga en cuenta que C 1 no tomará en general el mismo valor que antes, a saber C 1 metro . Esto es lo que queremos decir con "las interacciones vuelven a normalizar sus acoplamientos". Solo queremos decir que, al agregar interacciones a su modelo, el valor numérico de sus constantes de acoplamiento cambiará.

Todo esto es cierto incluso si su teoría es finita. Las teorías sin divergencias aún requieren una nueva normalización, es decir, el valor de las constantes de acoplamiento debe determinarse mediante la comparación con las predicciones observables, y las interacciones cambiantes cambian el valor numérico de sus constantes de acoplamiento. (La excepción son, por supuesto, las teorías lineales y algunos otros casos especiales, como los que involucran la integrabilidad).

Renormalizar una teoría generalmente significa: fijar el valor de sus parámetros dependientes del modelo { C i } como una cierta función de los parámetros medibles, tales como metro y otras propiedades observables de su sistema. El valor de metro está fijado por la naturaleza, y no tenemos control sobre él. El valor de { C i } depende de qué lagrangiano específico estemos usando para modelar el fenómeno físico, y cambia si cambiamos el modelo.

divergencias

En QFT, las divergencias son el resultado de un mal manejo de las distribuciones. En d > 1 , los campos cuánticos no son funciones del espacio-tiempo, sino distribuciones. Como tal, no puede manipularlas como si fueran funciones regulares, por ejemplo, en general, no puede multiplicar distribuciones. Cuando lo haces, obtienes divergencias.

Esto se manifiesta en el hecho de que la función F desde antes normalmente tiene términos divergentes en su interior. Lo lindo es: para una gran clase de teorías, si escribes C i = C ~ i + d i , con d i una contribución divergente (específicamente construida), y C ~ i una parte finita, entonces la relación metro = F ( C i ) = F ~ ( C ~ i ) se hace finita, es decir, la función F ~ ya no tiene términos divergentes dentro.

Pero tenga en cuenta que la renormalización en realidad no solucionó las divergencias. Las divergencias se eliminaron escribiendo C i = C ~ i + d i y compensando cuidadosamente las divergencias con otra parte divergente, d i . Esto no es lo que es la renormalización. La renormalización es la afirmación de que, si tuviera que cambiar el modelo, el valor numérico de las constantes C i (y, por extensión, la de C ~ i ), cambie en consecuencia.

Para una teoría general, debe realizar ambos pasos: 1) cancelar las divergencias dividiendo los parámetros dependientes del modelo como C i = C ~ i + d i , con finito C ~ i y un divergente adecuado d i , y 2) renormalizar su teoría, es decir, fijar el valor de sus parámetros dependientes del modelo C ~ i en función de parámetros observables tales como metro .

funciones de n puntos

¿Qué parámetros medibles podemos usar más allá metro ? en general habrá múltiples parámetros C i , por lo que necesita tantos observables para fijar el primero en función del segundo. Para una teoría completamente general, es difícil llegar a una lista concreta de parámetros observables. Para sistemas específicos esto es fácil, por ejemplo, para un material termodinámico podríamos usar la susceptibilidad en la criticidad, mientras que para QCD podríamos usar la constante de decaimiento del pión. Ambos son medibles en un laboratorio y ambos pueden predecirse en función de los parámetros en el Lagrangiano.

Pero, ¿qué pasa si estamos tratando con un QFT más general, uno para el cual no tenemos una imagen clara de lo que describe en la vida real? ¿Qué observables podemos usar entonces, si ni siquiera sabemos qué está modelando la teoría en primer lugar? En esta situación, es conveniente utilizar funciones de correlación en valores específicos de los momentos externos como "observables". Entonces, para teorías genéricas, en lugar de usar una constante de decaimiento como parámetro medible, usamos Γ ( norte ) ( 0 ) , como si esto fuera algo que pudiéramos medir. Con bastante frecuencia, en realidad lo es, pero esto realmente depende de con qué QFT esté trabajando.

Desearía que esto me fuera explicado así la primera vez que me encontré con la renormalización
¡Buena respuesta! ¿Seguirían ocurriendo infinitos si las partículas en realidad no fueran puntuales?
@AccidentalTaylorExpansion (¿accidentalmente también accidental? :)). Palabras verdaderas.
Buena respuesta. Un comentario: una cosa que los recién llegados pueden encontrar confusos es la aparente combinación del término parámetro con el término observable . Esto es evidente en el ejemplo del oscilador anarmónico clásico. Un recién llegado se quejaría de que usted dijo que, una vez que la teoría se vuelve no lineal, los parámetros de la teoría tendrían que volver a normalizarse. Pero los parámetros de esa teoría, dice el recién llegado, son m , k y gamma , y son simplemente constantes. Lo que cambia es el período , pero es normal que diferentes teorías den diferentes predicciones para tales observables.
Una manera de describir el problema con las QFT relativistas (quizás no sea la mejor manera desde el punto de vista de los practicantes experimentados, pero quizás la forma más natural para un principiante) es la siguiente: la forma en que primero escribimos nuestras QFT, con los diversos parámetros ( c1 , c2 , etc.), obtenemos divergencias para cualquier valor fijo no trivial de estos parámetros. Hay varias formas de diagnosticar lo que va mal, incluida la historia de las distribuciones frente a las funciones. Después de realizar la 'renormalización infinita', en realidad terminamos con una teoría cualitativamente diferente de aquella con la que comenzamos.
Su respuesta tiene sentido, pero tratar de entender la presentación estándar de los libros de texto a la luz me deja un poco desconcertado. Por ejemplo, uno encuentra declaraciones como "La idea detrás de la renormalización es que para cada infinito debe haber un parámetro libre para absorberlo" (esto del libro de Schwartz). ¿Cómo debo entender la conexión entre la renormalización y la divergencia que se dibuja allí?
Esta es una muy buena publicación, pero me gustaría agregar una cosa: no solo cambian los significados de los parámetros cuando agregas interacciones , sino que también cambian cuando calculas el siguiente orden de tu aproximación perturbativa (que formalmente es lo mismo como agregar términos de interacción después de todo). Entonces, otra forma de verlo que probablemente esté más cerca de las necesidades de alguien que trabaja con una teoría fija como el modelo estándar, sería que cualquier cálculo perturbativo necesita renormalización, ya sea en los dominios clásicos o cuánticos.
@d_b inifinites son lugares donde la necesidad de renormalizaciones se vuelve más evidente, pero como deja en claro esta respuesta, son una distracción. El vínculo con los infinitos es tan fuerte en la cabeza de las personas que es difícil pensar claramente en la renormalización. Solo lea el primer párrafo del artículo de wikipedia sobre Renormalización: muchos sobre infinitos y una oración en subjuntivo sobre la renormalización en ausencia de infinitos.
No deja en claro cómo la mecánica newtoniana clásica requiere una renormalización. ¿Por qué no usar el Lagrangiano completo? Entonces no hay (se necesita una renormalización de omega dependiente de la condición inicial).

Aquí hay una perspectiva complementaria a la excelente respuesta de AccidentalFourierTransform. Esto resultó muy largo, pero este es un tema enorme que no se puede resumir completamente en una respuesta. Un punto importante que quiero señalar es que la renormalización es conceptualmente independiente de la naturaleza cuántica de QFT o de la naturaleza de la teoría de campos de QFT, y es más bien un concepto ubicuo y fundamental que realmente llega al núcleo de la física de muchos cuerpos (es decir, la física de muchos grados de libertad que interactúan). QFT resulta ser el problema "último" de muchos cuerpos (infinitos osciladores armónicos cuánticos que interactúan llenando el espacio-tiempo)

Renormalización y grano grueso

La interpretación original más clara de la renormalización fue la construcción de giro en bloque de Kadanoff para el modelo de Ising, que puede denominarse "renormalización del espacio directo". La idea básica es que tenemos un modelo microscópico que describe la física en las escalas más pequeñas (por ejemplo, un modelo de espín en una red) y realizamos granulados gruesos consecutivos, promediando espacialmente los grados de libertad en alguna región de tamaño. , y reescribiendo la teoría en términos del modelo original hamiltoniano pero ahora con parámetros "renormalizados", y repitiendo esto nuevamente con una región de tamaño ligeramente mayor, etc., hasta que converjamos a un "punto fijo". La idea aquí es que en cada paso estamos "integrando" grados de libertad microscópicos, y es este proceso de rastrear grados de libertad y "alejar" a una escala macroscópica de lo que se trata la renormalización. En este video se muestra una hermosa demostración de esto para el modelo Ising .

Tenga en cuenta que, en la práctica, es mucho más fácil realizar este granulado grueso en el "espacio recíproco/impulso", donde integramos los modos de alto impulso (que corresponden en el espacio directo a los modos de longitud de onda corta). Esto se llama "RG espacio-momento".

Desde una perspectiva experimental física, la idea básica de RG es que cuando realiza una medición, necesariamente tiene una resolución limitada a una escala de longitud accesible más pequeña sondeado por su experimento (por ejemplo, se puede pensar en un colisionador como análogo a un microscopio gigante). En realidad, no se puede observar la física en escalas de longitud más pequeñas que , todo parece "borroso" para su aparato. Por lo tanto, realmente está probando la descripción de grano grueso. A medida que varías , por ejemplo, aumentando la energía de su colisionador para hacer más pequeño, está cambiando la escala de longitud de grano grueso en la que prueba la teoría, por lo tanto, los observables "fluyen" con (o con energía).

Distribuciones de Renormalización y Probabilidad

Existe una perspectiva según la cual la renormalización corresponde a una generalización del teorema del límite central. La idea aquí es que tenemos un sistema físico compuesto por una gran cantidad (potencialmente infinita, más al final) de grados de libertad que fluctúa dinámicamente entre una gran cantidad de configuraciones posibles, con alguna distribución de probabilidad en este espacio de configuraciones. . El proceso de granularidad gruesa descrito anteriormente corresponde a promediar más y más grados de libertad, considerados como variables aleatorias. El teorema del límite central esencialmente dice que este proceso debe converger a una distribución gaussiana, que en RG corresponde al punto fijo trivial (todos los acoplamientos fluyen a cero). Pero es posible que fluyamos hacia un punto fijo no trivial, lo que corresponde a fluir a una distribución de probabilidad no gaussiana. Esto se explica eneste papel

Renormalización y fluctuaciones

En un problema de mecánica estadística, a menudo comenzamos con un modelo microscópico especificado por un funcional de energía mi en el espacio de configuraciones, y todo el comportamiento estadístico macroscópico es capturado por la función de partición, que calcula los promedios sobre grados de libertad microscópicos,

Z = configuraciones mi β mi
dónde β es la temperatura inversa. En QFT, el análogo de la función de partición es solo la integral de trayectoria, reemplazando β i 1 y la energía funcional mi por el funcional de acción. Es conveniente describir la misma información contenida en la función de partición en términos de un "funcional de energía efectiva" ("acción efectiva"), escribiendo
Z = mi β F
dónde F a menudo se llama la energía libre. en termodinámica F tiene en cuenta tanto la energía interna mi y también las "fluctuaciones", codificadas en la entropía S , y se puede escribir F = mi T S dónde T es la temperatura, lo que significa que hay un equilibrio entre minimizar la energía y maximizar la entropía. En una imagen microcanónica, S es solo el logaritmo de la multiplicidad de estados en una energía dada, y también es una medida de "cuánto espacio hay para fluctuar". Si bien el sistema quiere permanecer en configuraciones de baja energía, también quiere fluctuar entre tantas configuraciones como sea posible, lo que significa que puede explorar configuraciones de mayor energía si hay muchas disponibles (es decir, la densidad de estados es grande).

En la descripción anterior promediamos todas las configuraciones microscópicas. Una perspectiva un poco más refinada sería algo como lo siguiente. Dejar ϕ ser una variable efectiva (un "campo efectivo") que describe las configuraciones macroscópicas de un sistema. Como analogía, imagina lanzar cientos de monedas. Los grados de libertad microscópicos son monedas individuales, y las configuraciones microscópicas son realizaciones particulares de cada moneda siendo cara o cruz. Entonces ϕ puede describir el "número total de caras" macroscópico o el "número total de cruces". Para cada valor de ϕ hay muchas configuraciones microscópicas que producen la misma descripción macroscópica. Escribimos una función de partición generalizada y energía libre como

Z [ ϕ ] = configuraciones combatible con  ϕ mi β mi = mi β F [ ϕ ]
la energia libre F [ ϕ ] ahora describe la combinación de la energía de configuraciones compatibles con ϕ y su multiplicidad. Este es el origen puramente estadístico de la renormalización: describe cómo se pasa de una descripción de muchos grados de libertad microscópicos a una descripción de los observables macroscópicamente.

F [ ϕ ] es directamente análoga a la acción efectiva cuántica o potencial efectivo en QFT. El sistema desea minimizar la acción mientras explora una gran cantidad de configuraciones de acción superior a través de fluctuaciones cuánticas (en lugar de térmicas) (aquí es donde los instantes y las anomalías comienzan a entrar en la historia de QFT, que corresponden a mínimos locales, en lugar de globales). de la acción). En QFT generalmente comenzamos con una teoría de campo microscópica subyacente y deseamos describirla en términos de una teoría de campo macroscópica de "fluctuación promediada" que tiene acoplamientos "renormalizados". (Para algunas personas, esto es lo que quieren decir con "renormalización", es decir, que las teorías microscópica y macroscópica tienen la misma forma/lagrangiana, y son los parámetros de la teoría microscópica los que fluyen hacia los de la teoría macroscópica).

Mientras que en el caso de la materia condensada/mecánica estadística a menudo tenemos acceso a algún modelo microscópico que puede tener parámetros fijos que se pueden controlar, en QFT generalmente este no es el caso. Hay muchos modelos microscópicos subyacentes ("terminaciones UV") que pueden fluir hacia el mismo punto fijo RG ("límites IR"), lo que intuitivamente tiene sentido, ya que en cualquier caso hemos integrado los detalles microscópicos. Esto significa que es más útil especificar la teoría física macroscópica en términos de cantidades macroscópicas, es decir, los parámetros que aparecen en la acción efectiva, que en términos de parámetros microscópicos (en QFT continuo, los parámetros microscópicos pueden no ser ni siquiera sensibles para especificar en absoluto, ver más adelante).

Anharmonicity e interacciones: cuasipartículas

Si bien acabo de describir la renormalización debido a fluctuaciones/promedio estadístico, otra fuente importante de renormalización son las interacciones (nota: incluso los QFT que no interactúan pueden tener un comportamiento no trivial). A menudo, el punto de partida de un análisis RG es alguna teoría de campo medio. Asumimos alguna configuración de equilibrio para nuestro sistema y realizamos algún tipo de expansión perturbativa alrededor de eso. Ejemplos de campos medios serían

  1. Una descripción de campo libre más interacciones débiles (como en QFT de interacción débil)
  2. Un estado fundamental uniforme más fluctuaciones débiles (por ejemplo, una expansión de baja temperatura alrededor del estado fundamental de un ferromagneto)
  3. Una expansión de Ginzburg-Landau de la energía libre en términos de un parámetro de orden en la vecindad de un punto crítico.

En términos generales, uno está realizando una expansión en torno a un mínimo de algún potencial. La expansión del potencial al orden cuadrático produce una teoría libre (es decir, un grupo de osciladores armónicos desacoplados con ondas planas como excitaciones básicas), mientras que la expansión más allá del orden cuadrático introduce anhamonicidades, es decir, interacciones entre las soluciones de ondas viajeras (generalmente el término cuartico es el importante). uno, que describe las interacciones de dos partículas). En una teoría libre, interpretamos las ondas planas (o quizás los paquetes de ondas gaussianas) como partículas, al menos en la medida en que tienen masas en reposo bien definidas. Una pregunta básica es si la teoría macroscópica renormalizada también tiene una descripción de partículas, es decir, puede aproximarse como una teoría libre. Si ese es el caso, las partículas resultantes (en materia condensada) se denominan cuasipartículas. El origen de este término proviene deTeoría del líquido de Fermi que describe un gas de electrones que interactúan (es decir, un metal ordinario). Las cuasipartículas en ese caso parecen electrones, pero tienen masas renormalizadas. En general, las cuasipartículas también pueden ser inestables con un tiempo de vida finito.

La imagen general de las cuasipartículas es que son equivalentes a las partículas subyacentes de la teoría (por ejemplo, electrones) pero están "vestidas" por interacciones. En la descripción de QFT, una partícula puntual de un electrón cargado polarizará las fluctuaciones del vacío virtual electrón-positrón a su alrededor, lo que vuelve a normalizar la carga del electrón. En otras palabras, la carga está rodeada por una nube de pares de dipolos de carga/anticarga, que se polarizan en el campo de la carga central y, por lo tanto, atenúan el campo cuando se ven desde grandes distancias. Así, la carga del electrón se vuelve a normalizar por sus interacciones con otras partículas cargadas. Esto es exactamente equivalente a la perspectiva de que RG está "promediando sobre las fluctuaciones", y es por eso que la constante de estructura fina α fluye

En el nivel de la teoría de campos, la renormalización de masas debida a las interacciones corresponde a la renormalización del término cuadrático (es decir, gaussiano) en la acción. A nivel de distribuciones de probabilidad estamos hablando de aproximar una distribución anarmónica, no gaussiana, por una gaussiana.

Las teorías con una descripción de cuasipartícula renormalizada generalmente se denominan de interacción débil . Las teorías que no admiten una descripción de cuasipartícula renormalizada se denominan de interacción fuerte . Puede ser posible, por ejemplo, a través de una transformación de dualidad, convertir una teoría de interacción fuerte en una de interacción débil, aunque las cuasipartículas duales de interacción débil pueden tener una descripción muy compleja en la teoría original.

Divergencias: UV e IR

Tenga en cuenta las siguientes equivalencias de conceptos

  • energia alta alto impulso longitud de onda corta microscópico
  • energía baja bajo impulso longitud de onda larga macroscópico (de grano grueso)

Las divergencias en QFT son de dos tipos: ultravioleta (UV, escala de longitud corta) o infrarroja (IR, escala de longitud larga). Es común hablar de las teorías renormalizadas como el "límite/teoría IR", es decir, el límite de grano grueso, y la teoría microscópica como el "límite/teoría UV" (o, dada una teoría IR, la gente habla de "compleciones UV ", es decir, teorías microscópicas que fluyen hasta el límite IR dado).

Las divergencias IR generalmente provienen de "modos suaves", como partículas sin masa. El problema básico es que, mientras que las excitaciones masivas ("con intervalos") se suprimen a baja energía (longitud de onda larga), lo que requiere una energía mínima para crearse, las excitaciones sin masa ("sin intervalos") pueden desestabilizar la teoría porque pueden excitarse a niveles arbitrariamente bajos. energía (longitud de onda larga) y por lo tanto tienen una contribución no despreciable a la física IR. En términos muy generales, para una energía fija, uno podría tener una sola partícula sin masa con esa energía, o dos con la mitad de la energía, o tres con un tercio de la energía, etc. (porque las partículas sin masa tienen una relación lineal de energía-momento). Las partículas sin masa pueden "proliferar infinitamente" al dividirse en excitaciones de energía cada vez más baja (longitud de onda cada vez más larga). Este es el origen de las divergencias infrarrojas en los cálculos QFT. Generalmente aparecen como términos que son proporcionales al "volumen de espacio (tiempo)". Estas divergencias se pueden curar de manera efectiva colocando todo el sistema en una caja grande (o en un toroide) de escala longitudinal. L , limitando así las longitudes de onda/frecuencias más largas a L y las energías mínimas para 1 / L .

Las divergencias UV, por otro lado, son las que aparecen en el cálculo de RG. Estas divergencias provienen esencialmente del hecho de que en QFT tratamos el espacio-tiempo como continuo. Como señala la respuesta de AccidentalFourierTransform, la solución a esto es darse cuenta de que las configuraciones de campo microscópico deben tratarse como distribuciones en lugar de funciones. Tratadas como funciones, pueden convertirse en longitudes de onda arbitrariamente cortas (gran impulso), lo que significa que el espacio de configuraciones promediadas incluye otras extremadamente salvajes, no diferenciables (como una función delta, pero en todas partes), no solo configuraciones "suaves". De manera equivalente, el problema es que tenemos un número infinito de grados de libertad por unidad de volumen. Una teoría de campo es microscópicamente un grupo de osciladores armónicos acoplados, pero en el continuo hay un oscilador armónico para cada uno de los innumerables puntos del espacio-tiempo. Estas divergencias UV se curan introduciendo una escala de longitud mínima (por ejemplo, una red, que naturalmente nos da un número finito de grados de libertad por unidad de volumen y una longitud de onda mínima), o de manera equivalente, una escala máxima de momento/energía/frecuencia (un límite ultravioleta) . Si el corte se puede eliminar agregando solo un número finito de contratérminos para absorber las divergencias del Lagrangiano, la teoría es renormalizable o "UV completa". De lo contrario, la teoría aún puede considerarse una teoría de campo efectiva válida por debajo de la energía de corte. lo que naturalmente nos da un número finito de grados de libertad por unidad de volumen y una longitud de onda mínima), o equivalentemente una escala máxima de momento/energía/frecuencia (un límite ultravioleta). Si el corte se puede eliminar agregando solo un número finito de contratérminos para absorber las divergencias del Lagrangiano, la teoría es renormalizable o "UV completa". De lo contrario, la teoría aún puede considerarse una teoría de campo efectiva válida por debajo de la energía de corte. lo que naturalmente nos da un número finito de grados de libertad por unidad de volumen y una longitud de onda mínima), o equivalentemente una escala máxima de momento/energía/frecuencia (un límite ultravioleta). Si el corte se puede eliminar agregando solo un número finito de contratérminos para absorber las divergencias del Lagrangiano, la teoría es renormalizable o "UV completa". De lo contrario, la teoría aún puede considerarse una teoría de campo efectiva válida por debajo de la energía de corte.

Tenga en cuenta que no sabemos cuál es la física microscópica del universo, o si el espacio-tiempo es verdaderamente continuo o no. Creo que la mayoría de la gente diría que no lo es, y que la escala de Planck proporciona un límite UV natural (por ejemplo, las fluctuaciones arbitrarias de longitud de onda corta + alta energía colapsarán en un agujero negro de la escala de Planck). No creo que sea controvertido decir que podemos considerar el modelo estándar hasta cierto punto como una teoría de campo efectiva para (el límite IR de) alguna teoría subyacente de la gravedad cuántica. Tal teoría (por ejemplo, la teoría de cuerdas) sería una "completación UV" del modelo estándar.