Dirac dijo una vez que la renormalización es solo un procedimiento provisional y que tenía que ocurrir un cambio fundamental en nuestras ideas. ¿Algo cambió?

Una vez, Dirac dijo lo siguiente sobre la renormalización en la teoría cuántica de campos (mira aquí , por ejemplo):

La renormalización es solo un procedimiento provisional. Debe haber algún cambio fundamental en nuestras ideas, probablemente un cambio tan fundamental como el paso de la teoría de la órbita de Bohr a la mecánica cuántica. Cuando obtiene un número infinito que debería ser finito, debe admitir que hay algo mal con sus ecuaciones, y no esperar que pueda obtener una buena teoría simplemente manipulando ese número.

¿Se ha producido este cambio fundamental después? De ser así, ¿cuál es la naturaleza de este cambio "fundamental"? ¿Es un intento de unificar la mecánica cuántica con la relatividad general (cuyas dos corrientes principales son la teoría de cuerdas y la gravedad cuántica de bucles, y de las cuales no creo que se correspondan con la realidad, pero aparte de eso)? ¿Hay algo más exótico? ¿O simplemente se equivocó Dirac al suponer que el procedimiento es solo un procedimiento provisional?

Respuestas (7)

Hay muchos proyectos en marcha, y trataré de resumirlos con frases concisas que sean tan precisas como mi propia (ciertamente limitada) comprensión de ellos. Las soluciones incluyen:

  1. Renormalización clásica: son las predicciones las que importan, y la renormalización es solo la única forma (ciertamente complicada) de tomar el límite continuo que tenemos.
  2. Renormalización wilsoniana: simplemente no es posible construir una teoría no trivial que no sea una teoría efectiva de baja energía, y las constantes no renormalizables son aquellas que no afectan las teorías efectivas de baja energía.
  3. Teoría de cuerdas: todo este espacio-tiempo de 4 dimensiones es una ilusión que se construye a partir de la interacción de espacios-tiempos de 2 dimensiones (cuerdas). Debido a que todas las interacciones son renormalizables en 2-D, los problemas desaparecen (aunque hay muchas dimensiones compactas similares al espacio que aún tenemos que ver).
  4. Gravedad cuántica de bucles: el problema proviene de tomar el límite del continuo en el espacio-tiempo, así que descartemos la idea de un continuo por completo.

No encuentro ninguno de estos enfoques particularmente satisfactorio. Mi propia inclinación es favorecer el enfoque de "más derivados" porque implica la menor cantidad de cambios técnicos, pero requiere un enorme cambio filosófico. La causa de ese cambio filosófico proviene del requisito de que la teoría sea invariante de Lorentz; sería, en principio, posible hacer teorías no solo renormalizables, sino UV finitas, agregando algunas derivadas espaciales más. Sin embargo, debido a la invariancia de Lorentz, agregar más derivadas espaciales implica necesariamente agregar más derivadas temporales. Ostrogradsky demostró solo en física clásica que más de dos derivadas necesariamente implica que el hamiltoniano ya no tiene un límite inferior (una buena descripción técnica se brinda en Woodard (2007) yWoodard (2015) ).

En general, se considera tan importante que el hamiltoniano sirve como lo que restringe la teoría a un volumen finito de espacio de fase que es la mitad de uno de los axiomas que se incluyen en QFT ; en suma:

  1. existe un operador que corresponde al hamiltoniano que sirve como generador de traslaciones temporales (y a la carga de Noether conservada por la invariancia temporal de las leyes de la física), y
  2. los valores propios del generador de traslaciones de tiempo son positivos semidefinidos (o tienen un límite inferior).

El contenido de la representación Källen - Lehmann ( enlace de Wikipedia , también cubierto en la sección 10.7 de "La teoría cuántica de los campos" de Weinberg, Vol. I ) es que el postulado anterior, combinado con la invariancia de Lorentz, implica necesariamente no más de dos derivadas en el inverso del propagador.

La combinación de Ostrogradsky y Källen-Lehmann parece insuperable, pero solo si insiste en mantener ese "Hamiltoniano = energía" (aquí, uso "Hamiltoniano" como abreviatura para el generador de traducciones de tiempo, y "energía" como abreviatura para "esa carga conservada que tiene un límite inferior y confina los campos en el espacio de fase"). Sospecho que si está dispuesto a dividir esos dos trabajos, las dificultades en las teorías de derivadas superiores desaparecerán. La nueva versión del postulado de traducción energía/tiempo sería algo como:

  1. los generadores de traslaciones espacio-temporales se conservan (Hamiltoniano, 4-momentum),
  2. existe un operador de 4 vectores conservado que toma valores en el cono de luz hacia adelante, y
  3. Los operadores en 1 y 2 coinciden para baja frecuencia (correspondencia de física clásica).

Un artículo clave en esta dirección es el de Kaparulin, Lyakhovich y Sharapov (2014) "Classical and Quantum Stability of High-Derivative Dynamics" (y los artículos que lo citan, especialmente de los mismos autores), que muestra que la inestabilidad solo se convierte en un problema para el oscilador Pais-Uhlenbeck cuando acopla el sector derivado superior a otros sectores de ciertas maneras, y es estable cuando limita los acoplamientos a otras formas.

Dicho todo esto, más derivados no serían una panacea. Si intenta eliminar las divergencias en una teoría de calibre agregando más derivadas, por ejemplo, siempre agregará términos de interacción con más derivadas de tal manera que mantenga la teoría tan divergente como lo era al principio. Tenga en cuenta que "más derivadas" es matemáticamente equivalente a la regularización de Pauli-Villars (PV) por descomposición en fracciones parciales de la transformada de Fourier del propagador. Se sabe que PV no juega bien con la teoría de calibre precisamente debido a este problema, aunque generalmente se redacta como una violación de la invariancia de calibre porque se omiten los acoplamientos de orden superior con más derivadas necesarias para mantener la invariancia de calibre.

Acerca de 2): nunca leí a Wilson diciendo que las QFT continuas no tienen sentido y que todo lo que hay son teorías efectivas. Este es un giro moderno puesto en la teoría de Wilson, quizás para anunciar la llegada de la teoría de cuerdas.
@AbdelmalekAbdesselam Yo tampoco. Nunca escuché a nadie describirlo de la manera que yo lo hice, así es como interpreté la clasificación de términos no renormalizables como "triviales" o "irrelevantes" en la clase QFT que tomé usando Peskin & Schoeder bajo un practicante de Lattice QFT: eruditopedia.org/article/Lattice_quantum_field_theory .
Acabo de enviar una respuesta muy detallada a physics.stackexchange.com/questions/372306/… que espero arroje algo de luz sobre 2).
@AbdelmalekAbdesselam ¿Los QFT están cuantificados en un fondo continuo? Y, si es así, ¿cómo puede ser eso?
@descheleschilder: Sí, el fondo o el espacio-tiempo es continuo. Los campos son clásicamente funciones de este fondo en el conjunto de números reales (caso escalar). En QFT, estos se cuantifican y se convierten en distribuciones valoradas por el operador.

Como dijo Heterotic en los comentarios, el cambio "fundamental", independientemente de cuán fundamental creas que realmente es, es probablemente el cambio de la visión anterior de la renormalización como una elección arbitraria de constantes para ocultar cantidades divergentes desagradables a la noción wilsoniana moderna. del (semi-)grupo de renormalización donde la escala de renormalización representa inherentemente un límite hasta donde la QFT considerada es válida como teoría de campo efectiva ; vea también esta respuesta mía para ver un ejemplo de cómo las dos vistas difieren al ver la escala de renormalización .

Por lo tanto, el cambio fundamental podría expresarse con ligereza como el cambio de ver las QFT como una teoría fundamental de todo a usarlas como teorías de campo efectivas con una restricción inherente a la validez dada por el límite wilsoniano.

Me pregunto si eres lector de Dostoyevsky. A veces escribe oraciones largas de una página.
Creo que vale la pena mencionar que al final de su vida, Dirac estaba siguiendo los desarrollos realizados en la teoría de cuerdas. Dirac incluso conoció a Ed. Witten y le habló de su abominación sobre la renormalización. También dijo que Witten proporcionó "soluciones brillantes a una serie de problemas de física matemática". Si también recuerda que el enfoque de Dirac a la física se basaba fuertemente en la belleza matemática, entonces es fácil suponer que la teoría de cuerdas es el tipo de teoría que Dirac siempre soñó que era más fundamental que QFT.
@Diracology De hecho, pero dado que las versiones efectivas de baja energía de las teorías de cuerdas todavía son QFT que deben volver a normalizarse, aún necesita el enfoque wilsoniano para "dar sentido" a lo que está sucediendo.
@physicopath En muchos idiomas, escribir oraciones largas es bastante común. Me tomó años acostumbrarme a escribir oraciones relativamente cortas, como es común en inglés. Y me sorprende cuando veo que los hablantes nativos de inglés tienen dificultades para analizar oraciones largas. Para un ejemplo extremo, mi viejo libro de literatura de la escuela secundaria tenía una oración de media página.
@ACuriousMind ¿Hasta dónde se considera válido un QFT en una teoría de campo efectiva?
@ACuriousMind Pero, de nuevo, ¿hasta dónde puede decir que un QFT se considera efectivo?

¿Por qué crees que algo ha cambiado? Aunque estoy totalmente de acuerdo con el punto de vista de ACuriousMind de que ver QFT como una teoría efectiva alivia parte de la presión sobre la naturaleza de la renormalización, no creo que eso sea lo que Dirac estaba imaginando.

Como se mencionó en los comentarios, Dirac era un geómetra de corazón, o al menos, uno que apreciaba la estructura matemática del universo. En ese contexto, no creo que hubiera visto muy atractivo el cambio a la teoría del campo efectivo. Creo que quiso decir "fundamental" para incluir un cambio fundamental en nuestra comprensión de la estructura matemática de nuestro universo.

Entonces, en mi opinión, habría visto los intentos de modificar esa estructura (a través de cadenas, bucles, no conmutación, etc.) como el cambio fundamental necesario. Entonces, desde esa perspectiva, no ha habido el cambio que buscaba Dirac. Todavía estamos trabajando en eso.

No creo que algo haya cambiado si lees mi pregunta correctamente. Pregunté si algo cambió, entonces cuál fue el cambio. Y por un cambio, quise decir exactamente el tipo de cambio del que está hablando en su respuesta (aunque no estoy de acuerdo con los temas en desarrollo que menciona).

En cuanto a la pregunta de si se ha producido un cambio tan fundamental, diría que sí y que no. Sí, porque el punto de vista de Wilson ha brindado una imagen mucho más clara de la renormalización que, por cierto, no es "barrer las divergencias debajo de la alfombra". La declaración de Dirac sobre su comprensión de la renormalización (o la falta de ella) es bastante obsoleta en 2017. Sin embargo, también dije que no porque, en mi opinión, el desarrollo del RG de Wilson todavía está en progreso. Sé que esto ya es material de libro de texto para los cursos de QFT, pero creo que el RG de Wilson aún no se comprende en la situación más general en la que los acoplamientos (¡y los cortes!) dependen del espacio. Mi sensación es que, en última instancia, uno solo puede declarar la victoria y decir "sí, ahora entendemos el RG de Wilson".


Editar: para aquellos que todavía piensan que la renormalización es un "procedimiento de interrupción" o algún tipo de receta arbitraria de libro de cocina, consulte mi respuesta a la definición wilsoniana de renormalizabilidad . Debería (con suerte) dejar en claro que la renormalización de las QFT continuas vistas dentro del marco de Wilson es, de hecho, una estrategia bien planteada y, me atrevo a decir, hermosa .cuestión matemática. Algunos, como quizás Dirac, podrían considerar la idea de que BPHZ o la renormalización de Wilson-Polchinski es un parche que espera una mejor explicación más conceptual o geométrica. Mi respuesta no es en absoluto ortogonal a esta creencia. Esto es lo que traté de señalar cuando mencioné la conexión con el RG holográfico, que es una especie de geometrización del RG a través de la introducción de una dirección de coordenadas adicional. z correspondiente a la escala. Los expertos en AdS/CFT pueden corregirme si me equivoco, pero tengo entendido que se cree que la conexión con el RG juega un papel importante en esta correspondencia, pero la conexión cuantitativa precisa entre el RG wilsoniano y el RG holográfico sigue siendo difícil de alcanzar.

¿Por qué el voto negativo? Dije muchas cosas en mi respuesta y no sé cuál fue mal visto. ¿Fue el crimen de lese Dirac?
¿Qué quieres decir con escribir ¿Fue el crimen de lese Dirac ? Entiendo que es divertido ( el crimen ), pero no entiendo lo que quieres decir con lese Dirac . O, más corto aún, ¿qué significa lese ? ¿Es una abreviatura? ;-)
@descheleschilder: Por cierto, es inteligente de tu parte haber eliminado tu comentario anterior. Es un juego de palabras en en.wikipedia.org/wiki/L%C3%A8se-majest%C3%A9
¡Es interesante saberlo! Y ahora entiendo lo que quisiste decir con lesa . ¡Y es gracioso!

Creo que Dirac no estaba satisfecho con la falta de sentido matemático de la forma en que se realizó la renormalización.

Esto ha cambiado con la teoría de la perturbación causal . Esta última es una forma covariante y matemáticamente impecable de manejar la renormalización UV perturbativa, sin introducir en ninguna parte durante el desarrollo un corte (y el dudoso límite asociado), una dimensión no integral sin sentido geométrico o cualquier cantidad matemáticamente indefinida (infinita). Tampoco hay cantidades básicas no físicas: los parámetros mi y metro que ocurren en el enfoque causal de QED tienen a lo largo de su significado físico de la carga del electrón (con energía cero) y la masa del electrón.

El problema con un corte de energía Λ es que destruye la covarianza y la estructura causal, que aparecen sólo en el límite. Además, conduce (excepto en teorías asintóticamente libres) a artefactos como los polos de Landau, que prohíben tomar el límite. Λ . Un enfoque covariante que da cuenta de la causalidad desde el principio evita este último y es conceptualmente superior. También explica por qué el enfoque estándar conduce a los problemas convencionales con los infinitos, es decir, porque las distribuciones solo se pueden multiplicar bajo condiciones cuidadosamente controladas.

(El enfoque causal es perturbativo pero admite un grupo de renormalización , que le agrega la misma información no perturbadora que cualquier teoría de perturbación mejorada de RG, incluida una estimación de un posible polo de Landau. El polo de Landau es constructivamente peligroso solo en un enfoque donde un corte debe pasar el polo de Landau Por lo tanto, aunque podría haber un polo de Landau en la estructura de renormalización de Bogoliubov-Stueckelberg presente en el enfoque causal, no tiene ninguna consecuencia, ya que uno puede hacer la construcción perturbativa en cualquier energía fija por debajo de la escala de renormalización ( en QED, incluso en mi = 0 ) y tiene una teoría de perturbaciones válida. Solo el acoplamiento físico debe ser pequeño).

No creo que Dirac hubiera pedido un cambio de paradigma si hubiera conocido el enfoque causal y que se aplica universalmente a todas las QFT relativistas, incluido el modelo estándar. Creo que Dirac se hubiera sentido satisfecho con esta resolución de sus preocupaciones. En cualquier caso, quita por completo su denuncia.

Cuando obtiene un número infinito que debería ser finito, debe admitir que hay algo mal con sus ecuaciones, y no esperar que pueda obtener una buena teoría simplemente manipulando ese número.

Lo mismo vale para la denuncia de Feynman (citada en http://www.cgoakley.org/qft/ )

El juego de caparazón que jugamos... se llama técnicamente 'renormalización'. Pero no importa cuán inteligente sea la palabra, ¡sigue siendo lo que yo llamaría un proceso dippy! Tener que recurrir a tal abracadabra nos ha impedido demostrar que la teoría de la electrodinámica cuántica es matemáticamente autoconsistente. Es sorprendente que la teoría aún no haya demostrado ser autoconsistente de una forma u otra a estas alturas; Sospecho que la renormalización no es matemáticamente legítima.

Con la teoría de la perturbación causal, la renormalización perturbativa se ha vuelto matemáticamente totalmente legítima y se comprende bien.

+1 porque el enfoque de Epstein-Glaser merece ser mejor conocido. Sin embargo, no creo que entre en la categoría de "cambio de paradigma", por ejemplo, en comparación con la teoría de Wilson. Menciona como ventaja la ausencia de puntos de corte en el enfoque EP. No estoy seguro de que sea deseable. Al definir una integral ordinaria como un límite de sumas de Riemann que involucran un número norte de subintervalos, no veo el daño en introducir norte antes de tomar el limite norte . Del mismo modo, no hay ningún daño en la introducción de un corte UV Λ , siempre que se analice con éxito lo que sucede en el...
... Λ límite. También se debe mencionar que la definición de la teoría de la perturbación renormalizada sin introducir puntos de corte ya la hizo Wolfhart Zimmermann con su versión de la fórmula del bosque que actúa sobre el integrando en el espacio de momento.
@AbdelmalekAbdesselam: El problema con el límite es que destruye la covarianza y la estructura causal, que aparecen solo en el límite. Además, conduce a artefactos como los postes de Landau, que prohíben tomar el límite. Λ . Un enfoque covariante que da cuenta de la causalidad desde el principio evita este último y es conceptualmente superior. También explica por qué el enfoque estándar conduce a los problemas convencionales con los infinitos.
No creo que Dirac hubiera pedido un cambio de paradigma si hubiera conocido el enfoque causal y que se aplica universalmente a todas las QFT relativistas, incluido el modelo estándar.
El enfoque causal es puramente perturbativo y no ofrece información sobre el problema del polo de Landau.
Lo evita. El poste Landau es constructivamente peligroso solo en una aproximación donde un corte debe pasar el poste Landau. Por lo tanto, incluso si hay un polo de Landau en la estructura de renormalización de Bogoliubov-Stueckelberg, no tiene ninguna consecuencia, ya que uno puede hacer la construcción perturbativa a cualquier energía fija por debajo de la escala de renormalización (en QED, incluso en mi = 0 ) y tiene una teoría de perturbaciones válida. Solo el acoplamiento físico debe ser pequeño.
Está insinuando que el enfoque causal puede renormalizar de forma no perturbativa phi cuatro en 4d (que tiene un problema de fantasmas de Landau). Eso sería una novedad para mí y para muchas otras personas...
@ ArnoldNeumaier: me gusta mucho tu respuesta (aunque no me gusta quitarle los mejores puntos de respuesta a otra persona). Solo una pregunta: ¿Qué quiere decir con una carga de electrones (con energía cero)? ¿La carga no se mantiene igual en todas las energías?
Solo una pregunta más: ¿qué quiere decir con escribir una dimensión no integral geométricamente sin sentido ?
@AbdelmalekAbdesselam: El enfoque causal es perturbativo pero admite un grupo de renormalización, que le agrega la misma información no perturbativa que cualquier teoría de perturbación mejorada de RG, incluida una estimación de un posible polo de Landau.
@descheleschilder: 1. La carga del electrón es la llamada constante de acoplamiento en ejecución; su valor medible, por lo tanto, cambia con la energía utilizada para sondearlo; ver arxiv.org/abs/hep-ex/0002035 - 2. Las dimensiones no integrales aparecen en el enfoque de regularización dimensional de QFT y carecen de un significado físico.
@AbdelmalekAbdessela: Mi opinión sobre Φ 4 en 4D y el polo de Landau se puede ver en las discusiones en physicsoverflow.org/32752 y physicsoverflow.org/21391
@ArnoldNeumaier: la respuesta a mi segunda pregunta es, por supuesto, obvia (aunque puede tener dimensiones no integrales en los fractales; pueden tener dimensiones entre 1 y 2). Pero en el caso de la carga del electrón, ¿qué quiere decir con su valor físico ? Sé que el valor medible varía con la energía con la que estás midiendo su valor, pero ¿cómo mides su valor con energía cero? O se puede calcular? ¿Y qué hay de la inevitable polarización cuántica, que afecta al valor medible (a mayor energía, menor efecto tiene)? Finalmente (ver siguiente comentario),
¿Es posible hablar de una masa en movimiento (con lo cual no me refiero a alguien que está corriendo por la calle) tal como se habla de una constante de acoplamiento en movimiento ? Bueno, eso es más de una pregunta, pero siempre me gusta entender bien las cosas.
@descheleschilder: Todas las constantes de acoplamiento se ejecutan bajo el grupo de renormalización (Bogoliubov-Stueckelberg). - físico = medible, en contraste con desnudo (mal definido, dependiendo de un límite). energía cero = energía tan pequeña que el funcionamiento no se nota experimentalmente. Es lo que figura en el libro de Scharf sobre QED.

Él no es el único. Feynman también llamó a la renormalización 'hocus-pocus'.

Resulta que la renormalización tiene una bonita estructura matemática descrita por el grupo cósmico de Galois :

Lo que se llama el grupo cósmico de Galois es un grupo motívico de Galois que actúa naturalmente sobre estructuras en renormalización en la teoría cuántica de campos. El grupo de renormalización real es un subgrupo de 1 parámetro del grupo cósmico de Galois.

Es alentador ver que un grupo de renormalización es en realidad un grupo en el sentido matemático.

Además, se cree que se requiere renormalización para evitar infinitos que surjan de la idealización de partículas puntuales en QFT; y resulta que la renormalización en sí misma se dispensa dentro de la teoría de cuerdas perturbativa donde las partículas puntuales se reemplazan con cuerdas.

Hay dos RG diferentes. El RG de Wilson es solo un semigrupo, pero el de Bogoliubov y Stueckelberg es un grupo. Ver physics.stackexchange.com/a/373353/7924

Estoy seguro de que el gran avance debe venir de las matemáticas. En particular, seremos capaces de manipular los valores de integrales y series divergentes al igual que manipulamos números reales y complejos. Estos números extendidos serían tan fundamentales en QFT y la física del vacío como los números complejos en la mecánica cuántica.

No esperaría a las matemáticas para los avances. Pero eso es solo un sentimiento y puede estar mal de vez en cuando.
Estoy de acuerdo. Las nuevas ideas son más importantes.
@jjack: No es del todo justo para los matemáticos porque es una declaración general.
@Anixx: En parte haciéndose eco del comentario de jjack, no creo que una idea ingenua como un sistema numérico extendido ayude. uno no entiende límite X 2 X 1 X + 3 introduciendo algunos números extendidos 1 = límite X 2 X 1 tanto como 2 = límite X X + 3 y definiendo una operación de cociente extendida para 1 2 = 2 .
@AbdelmalekAbdesselam ¿Entonces cree que se requiere rigor matemático para obtener buenos modelos en física?
@jjack: Estás haciendo una nueva pregunta. Decía que es posible que algunos matemáticos puedan contribuir a cuestiones de física como la comprensión de la renormalización aportando nuevos conocimientos, sean rigurosos o no. Con respecto a su nueva pregunta: creo que a la larga es bueno tener algo de rigor matemático en la teoría de la física. Sin embargo, si eres físico y acabas de tener una idea brillante sobre una nueva teoría, por supuesto, date prisa y publica en PRL un esquema no riguroso. No espere hasta tener una versión a prueba de Bourbaki de su teoría.
@AbdelmalekAbdesselam No veo por qué debería presentarse de esta manera como usted propone.
@Abdelmalek Abdesselam Aquí hay un boceto de una teoría de trabajo en progreso de números extendidos: extended.fandom.com/wiki/Extended_Wiki en la parte inferior puede ver algunos ejemplos de integrales divergentes y series representadas como números extendidos.