He leído sobre la renormalización de teoría, es decir. particularmente del libro de Ryder. Pero estoy confundido acerca de algo:
Ryder comienza calculando la función de Green de dos puntos ordenar (es decir, la corrección de primer orden al propagador libre). ahora si tomamos ser pequeño entonces esto debería ser una buena aproximación, pero diverge, por lo que lo regulariza imponiendo un límite de impulso , y luego hace una función de es decir. Luego pasa a lo mismo para la función de Green de cuatro puntos, y encuentra que es también una función del corte, es decir. Pero en este punto ya no es pequeño cuando es grande (en particular como ), entonces, ¿qué hace que la serie de perturbaciones sea válida? ¿Cómo podemos ignorar la ¿términos? He leído cosas como "renormalizado hasta 1 bucle", pero ¿qué pasa con todos los demás bucles, son pequeños? ¿O estoy malinterpretando lo que está pasando?
Tal vez sea así: cuando calculamos la función de Green de dos puntos G(x,y) después de hacer un corte de cantidad de movimiento en algún punto grande dónde es mayor que el momento en el que estamos realizando el experimento, encontramos que la masa se ha desplazado a la masa física dónde es un término de corrección de primer orden. Ahora tenemos una segunda ecuación para dado por alguna función que va al infinito como pero Entonces podemos ignorar la termino y solo di Ahora que la física de baja energía debería ser independiente de la escala de energía y ya es grande, suponemos tiene la misma forma en todas las escalas de energía y esto define una funciones de asi que y luego para cada cálculo que hacemos para pedir uno en sustituimos en esta fórmula por tomar y calcular los resultados. Ahora técnicamente una mejor aproximación a en el punto de corte es y entonces, si queremos un mejor resultado, debemos establecer y hacer lo mismo. ¿Es algo como esto?
La renormalización siempre es necesaria cuando el hamiltoniano es singular. Singular significa que la expresión formal del hamiltoniano resultante de la interacción especificada no es un operador autoadjunto en un dominio denso. Entonces la dinámica está mal definida formalmente y debe ser renormalizada cuidando representar todo correctamente como un límite que tenga sentido.
En particular, este es siempre el caso en las teorías de campos cuánticos relativistas que interactúan en 3 o 4 dimensiones del espacio-tiempo.
Para comprender por qué y cómo funciona la renormalización, primero se pueden considerar situaciones más simples en la mecánica cuántica. En este caso, hay modelos de juguete explícitamente resolubles (perturbaciones singulares de bajo rango de sistemas resolubles simples) donde uno puede ver exactamente qué sucede y por qué. Consulte mi artículo Renormalización sin infinitos: un tutorial , que analiza esto en detalle.
Acerca de cómo (o si) uno puede saber si los términos en una serie asintótica serán pequeños, consulte las discusiones en el Capítulo B5: Divergencias y renormalización de mis preguntas frecuentes sobre física teórica .
Antes de intentar responder a tu pregunta, una cosa:
¿Ryder realmente calcula el al propagador como la primera contribución en la teoría de la perturbación, porque en realidad hay un al propagador y al -loop es, en lo que a mí respecta, un diagrama de dos bucles, es decir, que tiene dos impulsos de bucle, lo que en realidad es difícil de resolver como primer ejemplo para introducir el procedimiento de renormalización. Pero para ser honesto, esto -La contribución no conduce a ninguna renormalización de la masa, por lo que no aprenderá mucho de esto, pero no estoy seguro de si Ryder lo menciona.
Pero déjame intentar responder a tu pregunta con un punto de vista ligeramente diferente:
Lo que pasa con la renormalización es que ves que las integrales de tu bucle divergen, por lo que impones un corte de impulso , con la motivación en mente, que la teoría tiene sólo un rango limitado de validez. Y como ya mencionaste, el resultado dependerá de este límite, por lo que "ocultas" la dependencia del límite en la redefinición de los parámetros (masas y acoplamientos) de tu teoría. El argumento es que los parámetros que escribes en el Lagrangiano (digamos, y ) no tienen significado físico, pero los parámetros que mides por experimento ( y ) tienen y se desplazan. Entonces, hasta este punto, es correcto decir que los parámetros dependen del corte, pero el problema que mencionas no surge.
Permítanme señalar esto en el siguiente ejemplo: Para el -propagator (la función de Green) obtienes alguna modificación debido a la integral de bucle :
El límite se puede hacer, porque se resta más o menos la parte divergente de la integral de bucle. Y ese es el punto importante: no solo dice que redefine sus parámetros en función del límite, sino que también impone una condición de renormalización que al final conduce a una -Cantidad independiente.
Muchas dificultades en la renormalización se aclaran cuando se usa el punto de vista de "Reparametrización de la teoría".
Permítanme ilustrar lo que quiero decir:
Si uno obtiene ingenuamente una teoría cuántica de campos a partir de una teoría clásica de campos mediante un procedimiento de cuantización, obtiene resultados poco realistas para cantidades medibles. Esto no debería sorprender: ¿Por qué los parámetros clásicos de nuestra teoría deberían ser los correctos para nuestra teoría cuántica de campos?
Así que queremos repararmetrizar nuestra teoría, de modo que los nuevos parámetros finitos den resultados realistas.
Considere una densidad lagrangiana .
Ahora las cantidades medibles de la teoría cuántica de campos correspondiente dependerán de esos parámetros, por ejemplo
"masa física" = polo del propagador = P(A,B,C)
"Renormalización de la función de onda" = Residuo del propagador = Z(A,B,C)
"Vértice de 4 puntos en ciertos mandelstams" = G(A,B,C)
Ahora queremos invertir esas funciones para obtener una nueva parametrización A(P,Z,G), B(P,Z,G), C(P,Z,G). Dado que P, Z, G son medibles en el experimento, deberían ser finitos y una buena parametrización de nuestra teoría cuántica de campos.
Ahora, primero considere un contexto no perturbativo: aquí deberíamos poder invertir P, Z, G exactamente para obtener una reparametrización en la que nuestras cantidades medibles sean, con suerte, finitas.
En un contexto perturbativo podemos calcular P,Z,G hasta el orden, digamos, N. Entonces las "Condiciones de Renormalización" (que son más "Condiciones de Reparametrización") definen una reparametrización diferente para cada orden N. Si renormalizamos hasta orden N, entonces hemos elegido una reparametrización que hace que todo sea finito hasta el orden N. Tal vez esta reparametrización también haga que las cosas sean finitas en orden superior, pero tal vez no.
Nota Bene: Cosas como MS o MS-bar simplemente definen diferentes condiciones de renormalización/reparametrización, es decir, implícitamente a través de contratérminos, ya que cada esquema de sustracción determina la estructura de los contratérminos y la estructura de los contratérminos determina la reparametrización.
PD: En la nomenclatura anterior normalmente se elige la condición de Reparametrización Z(A,B,C) = 1.
PPS: Esta publicación es más una ilustración que una argumentación rigurosa real. Pero todo lo que dije se puede hacer más riguroso.
El truco está en la introducción de una escala de renormalización.
Una vez que se ha regularizado la teoría de la perturbación, se obtiene una interacción dependiente del impulso (y del corte) de la forma (esquemática) en 4D
Lo que se hace es fijar el valor de la interacción en una energía dada , tal que . expresando en términos de Se obtiene
Tenga en cuenta que esta teoría de la perturbación funciona bien solo para energías lo suficientemente cercanas a , y que el punto de referencia debe ser dado por los experimentos, o una teoría más fundamental.
Quisiera subrayar la diferencia entre
1) Renormalización perturbativa
2) Renormalización no perturbativa
Por Renormalización Perturbativa me refiero a eliminar infinitos del cálculo de un correlador/amplitud, orden por orden . Esto se hace introduciendo contratérminos, es decir, reescribiendo los parámetros desnudos del lagrangiano como , eligiendo un esquema de regularización con su escala de "corte" , e imponiendo el valor de un (posible número finito de) correladores/amplitudes. Tienes que medir realmente estos valores para establecerlos; no puedes calcularlos a partir de la teoría. En función de estos parámetros, se puede calcular cualquier otro correlador/amplitud obteniendo un resultado finito, por muy alto que sea el orden al que se llegue.
Por qué esto funciona puede interpretarse con un análisis esquemático complicado o con un enfoque de corte flotante, a la Wilson.
Ahora pasemos al segundo punto.
Una vez que resolvió el primer problema (haciendo finitas las cantidades orden por orden), y comienza a calcular los correladores/amplitudes, descubre que los resultados (ahora finitos) involucran "grandes logaritmos" como dónde es la escala de renormalización, es decir, la escala típica de las cantidades que mide e impone que podrían ser, por ejemplo, correladores/amplitudes que involucran campos/partículas con una escala de energía común similar, y es la escala típica del correlador/amplitud que desea calcular. Esto es un problema porque, incluso si las cantidades que está calculando son finitas en cada orden, no puede descuidar órdenes más altas que involucran más y más de estos "logaritmos grandes".
La solución a este problema es suavizar el paso de la escala de renormalización a la escala de interés, es decir pasar de a una escala (ahora los logaritmos son pequeños), y de aquí a y así sucesivamente hasta llegar a . Este procedimiento de "suavizado" es el Flujo de Grupo de Renormalización, y puede pensarse como una expansión de los correladores/amplitudes no en términos de o sino más bien de acoplar constantes que dependen (o corren) de la escala de los observables que desea calcular.
Ahora, si esta ejecución es tal que las constantes de acoplamiento permanecen pequeñas, entonces la expansión perturbativa seguirá siendo válida y, por lo tanto, se mantiene la "renormalización perturbativa", de lo contrario, se debe diseñar otra técnica para producir previsiones cuantitativas de su teoría.
Para comprender por qué la renormalización puede funcionar, primero puede considerar situaciones más simples en Mecánica Clásica/Cuántica. En este caso, hay modelos de juguetes explícitamente solucionables donde uno puede ver exactamente qué sucede y por qué. Consulte mi artículo " Un modelo de juguete de renormalización y reformulación " en arXiv.
Acerca de cómo hacer frente a los términos crecientes, consulte mi breve nota aquí .
TLDR