¿La renormalización es una herramienta para eliminar infinitos o una herramienta para obtener resultados físicos?

Citando Wikipedia :

la renormalización es cualquiera de una colección de técnicas utilizadas para tratar infinitos que surgen en cantidades calculadas.

¿Es eso cierto? a mí me parece mejor definir la renormalización como un conjunto de técnicas para ajustar la teoría para obtener resultados físicos. Lo explicaré. De acuerdo con el grupo de renormalización de Wilson, una teoría cuántica de campos siempre tiene inherentemente un parámetro de corte, por lo que, en cualquier caso, las integrales deben hacerse solo hasta el corte, por lo que no hay cantidades infinitas. Sin embargo, los resultados aún no son consistentes con la observación si no vuelve a normalizar los cálculos (por ejemplo, usando contratérminos).

¿Estoy en lo correcto? ¿Es cierto que la presentación habitual de la renormalización como una herramienta para eliminar divergencias es una mala interpretación del verdadero propósito de la misma?

La respuesta de Lubos es correcta. Quiero agregar que es un poco desafortunado que llamemos a esta colección de técnicas 'renormalización'. Parece que la idea clave es cambiar la norma de algo.
Estimado @user1504, cambiar la norma de los campos (por un factor infinito) es una parte importante de la renormalización, aunque no es la única parte.
@LubošMotl Es un detalle importante, pero sigue siendo solo un detalle de implementación. (Sería igual de tonto llamar a la renormalización "teoría del contratérmino".) Las ideas conceptuales centrales tienen más que ver con la similitud y la escala.
Solo deseo señalar una observación importante: incluso los cortes físicos por debajo del infinito dan como resultado infinitos en algunos casos. El problema no es simplemente que integremos hasta el infinito.

Respuestas (1)

Tienes toda la razón. La definición de Wikipedia de la renormalización está obsoleta, es decir, se refiere a la interpretación de estas técnicas que se creía antes del descubrimiento del Grupo de Renormalización.

Si bien la esencia computacional (y los resultados) de las técnicas no ha cambiado mucho en algunos casos, su interpretación moderna es muy diferente a la anterior. El proceso de garantizar que los resultados se expresen en términos de números finitos se conoce como regularización, no como renormalización, y la integración hasta una escala de corte finita es solo un ejemplo simple de regularización.

Sin embargo, la renormalización es un paso adicional que aplicamos más adelante en el que un número de cantidades calculadas se iguala a sus valores medidos (y, por lo tanto, finitos). Esto, por supuesto, cancela las partes infinitas (calculadas) de estas cantidades (me refiero a partes que eran infinitas antes de la regularización), pero para las teorías renormalizables, también cancela las partes infinitas de todas las predicciones físicamente significativas.

Sin embargo, la renormalización debe realizarse incluso en teorías en las que no surjan divergencias. En ese caso, todavía equivale a un mapeo correcto (aunque no trivial) entre los parámetros observados y los parámetros "desnudos" de la teoría.

La interpretación moderna basada en RG de estos problemas cambia muchas sutilezas. Por ejemplo, el problema de la teoría no renormalizable ya no es la imposibilidad de cancelar los infinitos. Los infinitos aún pueden ser regulados por una regularización, pero el verdadero problema es que introducimos un número infinito de parámetros finitos indeterminados durante el proceso. En otras palabras, una teoría no renormalizable se vuelve impredecible (se necesita una entrada infinita para que sea predictiva) para todas las preguntas cerca (¿y por encima?) de su escala de corte donde sus interacciones genéricas (términos de orden superior) se acoplan fuertemente.

Respuesta clara y concisa.
¡Me encantaría votar por segunda vez!
Y aquí hay un artículo agradable de leer sobre cómo el mismo autor ve actualmente la renormalización en el contexto de un evento triste.
¿Podría proporcionar ejemplos en los que se necesita la renormalización incluso para teorías sin divergencias?
Es un ejemplo algo técnico pero es realmente fuerte. El decaimiento de Higgs a 2 fotones está dado por diagramas convergentes, pero en realidad son incorrectos si se calculan en d = 4. Uno tiene que calcularlos con un esquema de regularización, idealmente en d=4-epsilon, consulte arxiv.org/abs/1306.5767 y motls.blogspot.cz/2013/06/… - ¡de lo contrario, obtendrá un resultado incorrecto! Pero incluso si uno obtiene el resultado "correcto", sigue siendo cierto que los parámetros en el Lagrangiano no son exactamente iguales a algunas formas naturales de cuantificar la fuerza de interacción, y...
... y el mapeo aún merece el nombre de renormalización.
También te puede interesar este artículo de A. Neumaier.
¡Descripción realmente interesante de "no renormalizable" aquí! ¿Sería correcto (en términos manuales...) describirlo como una teoría que no se puede simplificar a una escala de energía más baja sin, como escribes, aumentar infinitamente la complejidad de la teoría? Pero, dado nuestro mundo real con interacciones renormalizables como EM, ¿no sería este el caso de todos modos si vas a una escala de energía lo suficientemente baja, como la que ocupan los humanos? O allí es finito pero muchos parámetros nuevos :) Simplemente me cuesta obtener algo de intuición sobre los (posibles) límites de un QFT renormalizable. Tal vez justifique otra pregunta :)
Gracias y sí, las teorías no renormalizables son aquellas que requieren una complejidad infinita de términos para ser escritas y ajustadas a bajas energías. O descartarlos y adivinar una teoría renormalizable.
QED es perturbativamente renormalizable, por lo que si desea términos proporcionales a cualquier potencia de e o la constante de estructura fina, solo necesita determinar esta e o alfa experimentalmente, junto con la masa del electrón y quizás otros términos no relacionados con la interacción, y asegúrese de que cancelas las otras, infinitas contribuciones a la fuerza eléctrica.