¿Podría la teoría completa de la gravedad cuántica ser simplemente una teoría del campo cuántico no renormalizable?

Esto puede ser más una pregunta filosófica que una pregunta de física, pero aquí va. La línea estándar es que los QFT no renormalizables no son predictivos porque necesita especificar un número infinito de acoplamientos/contratérminos. Pero estrictamente hablando, esto solo es cierto si desea que su teoría sea predictiva en todas las escalas de energía .. Mientras solo considere procesos por debajo de ciertas escalas de energía, está bien truncar su Lagrangiano después de un número finito de términos de interacción (o detener su expansión de Feynman en algún orden de vértice de esqueleto finito) y tratar su teoría como una teoría efectiva. De hecho, nuestras dos teorías más precisas de la física, la relatividad general y el modelo estándar, son teorías esencialmente efectivas que solo funcionan bien en ciertos regímenes (aunque no del todo en el sentido técnico descrito anteriormente).

Como físicos, estamos filosóficamente predispuestos a creer que existe una sola teoría fundamental, que requiere una cantidad finita de información para especificarse completamente, que describe procesos en todas las escalas de energía. Pero uno podría imaginar la posibilidad de que la gravedad cuántica se describa simplemente mediante una QFT con un número infinito de contratérminos, y cuanto mayor sea la energía del proceso que desea considerar, más contratérminos debe incluir. Si este fuera el caso, nadie sería capaz de predecir con confianza el resultado de un experimento a una energía arbitrariamente alta. Pero la teoría seguiría siendo completamente predictiva por debajo de ciertas escalas de energía: si quisiera estudiar la física en una escala determinada, solo necesitaría medir experimentalmente el valor de los contratérminos relevantes una vez ., y luego siempre podrá predecir la física a esa escala y por debajo. Entonces, podríamos predecir esa física a energías arbitrariamente altas a las que tendríamos acceso experimental , independientemente de qué tan avanzados tecnológicamente fueran nuestros experimentos en ese momento.

Es cierto que tal escenario sería muy insatisfactorio desde una perspectiva filosófica, pero ¿hay algún argumento físico en su contra?

@ACuriousMind Creo que mi pregunta es llegar a algo diferente a eso. Entiendo cómo funcionan las teorías efectivas cuando tienes un límite de energía por encima del cual emerge nueva física. Estoy preguntando si es posible que ninguna física (cualitativamente) nueva surja nunca por encima de su límite, y por lo tanto su serie infinita de teorías efectivas anidadas es, de hecho, la teoría final.
Lo que dice se parece mucho a cómo podemos usar la física newtoniana en los casos en que no tenemos acceso a un objeto de prueba lo suficientemente rápido (o lo suficientemente pequeño) para realizar efectos relativistas o cuánticos.
Mis disculpas: robé una línea de su publicación anterior para mi pregunta mucho más ingenua: physics.stackexchange.com/q/299729 Espero que no le importe, está mucho mejor expresado que yo podría manejar.
Pregunta: ¿por una QFT no renormalizable se refiere a un modelo definido por el Lagrangiano en el espacio-tiempo de fondo de Minkowski? El espacio-tiempo de Minkowski es una solución de las ecuaciones clásicas de Einstein y probablemente esté drásticamente modificado por una teoría cuántica de la gravedad. Se espera que el espacio-tiempo de gravedad cuántica fluctúe mucho en la escala microscópica.
Cuantificar el espacio-tiempo no funciona porque el espacio-tiempo no es continuo en una dirección similar al espacio. Intenta asignar un factor de Lorentz (t/ τ ) a un punto de vacío entre partículas, verá que el vacío es atemporal (el tiempo no está definido).
Véase CP Burgess, Quantum Gravity in Everyday Life: General Relativity as an Effective Field Theory, Living Reviews in Relativity 7 (2004), 5. livingreviews.org/lrr-2004-5
@Moonraker People podría significar cosas diferentes por "espacio-tiempo cuántico". Por ejemplo, los modelos de spinfoam son candidatos plausibles para el espacio-tiempo cuántico. No veo cómo tu argumento del "factor Lorentz" tiene que ver con nada. Intente aplicarlo a los modelos de spinfoam, que se sabe que son autoconsistentes.
@Solenodon Paradoxus, que yo sepa, las teorías de la espuma giratoria también usan hipersuperficies espaciales, consulte Wikipedia : "En la gravedad cuántica de bucle (LQG), una red giratoria representa un "estado cuántico" del campo gravitatorio en una hipersuperficie tridimensional.
@Moonraker no exactamente. Los modelos de spinfoam (como LQG covariante) utilizan estados cuánticos generalizados asociados a los límites de spinfoams. Estos no son los estados cuánticos habituales en el sentido en que se dan en la mecánica cuántica, porque no codifican información sobre un instante de tiempo especial, sino más bien sobre un límite tridimensional (¡no espacial!) de una determinada región del espacio-tiempo. . La dinámica cuántica completa se obtiene mediante la suma de las espumas de espín limitadas por la red de espín. Familiarícese con el "formalismo de límites" (si aún no lo ha hecho).

Respuestas (5)

Usted sugiere que podemos usar una teoría no renormalizable (NR) a energías mayores que el corte, midiendo suficientes coeficientes en cualquier energía.

Sin embargo, una expansión general de una amplitud para un NR que se descompone en una escala METRO lee

A ( mi ) = A 0 ( mi ) C norte ( mi METRO ) norte
Supuse que la amplitud se caracterizaba por una sola escala de energía. mi . Así a cualquier energía mi METRO , no podemos calcular amplitudes a partir de un subconjunto finito de coeficientes desconocidos.

Por otro lado, podríamos tener una pila infinita de (NR) teorías efectivas (EFT). Los nuevos campos introducidos en cada EFT podrían subir sucesivamente el límite. En la práctica, sin embargo, esto no es más que descubrir nueva física a energías más altas y describirla con QFT. Eso es lo que hemos estado haciendo en colisionadores durante décadas.

No estoy sugiriendo "que podamos usar una teoría no renormalizable (NR) a energías mayores que el corte, midiendo suficientes coeficientes en cualquier energía". Enfatizo en mi pregunta que necesitaríamos que nuestros experimentos fueran a energías cada vez más altas para medir los valores de contratérminos cada vez más altos.
La idea de la "pila infinita de EFT" es lo que estoy sugiriendo. Pero el punto es que estoy proponiendo que los EFT de alta energía no contendrían ningún "nuevo campo" o cualitativamente "nueva física" - sólo más constantes de acoplamiento para interacciones gravitónicas de orden superior. Bajo mi propuesta, nunca se descubrirían nuevas partículas (que involucren la gravedad).
No entiendo lo que quieres decir. a medida que te acercas mi METRO , necesita saber/medir más y más coeficientes para hacer predicciones. Pero una vez que superas mi METRO , necesita infinitamente muchos, ya que todos los términos en la expansión de la perturbación son grandes (y, de hecho, la teoría de la perturbación se rompe).
En mi pila infinita de EFT, se integran campos masivos en cada umbral, y cada EFT incluye todos los términos (R y NR) consistentes con las simetrías. Por lo tanto, dos EFT con el mismo contenido de campo y simetrías son idénticos y no pueden diferir, por ejemplo, en 'más constantes de acoplamiento para interacciones de gravitones de orden superior'.
Ese es el problema: por encima del límite de EFT, todas las interacciones NR de alto orden se vuelven importantes a la vez. No es el caso que subas mi METRO y una interacción NR es importante, súbalo un poco más 2 interacciones NR son importantes, etc.
Ah, ya entiendo. Tu último comentario me aclara todo. ¡Gracias!

El problema con GR+QM es que los contratérminos incluyen términos derivados superiores,

L C t r 4 h
dónde gramo m v = η m v + h m v .

Por lo tanto, según el teorema de inestabilidad de Ostrogradsky , el sistema es inestable . Esto significa que todo el programa de la teoría de perturbaciones tiene poco sentido, y no hay razón para que esperemos que la expansión perturbativa tenga algo que ver con lo que la teoría realmente nos está diciendo.

Por lo tanto, la expansión perturbativa de QGR no necesita reflejar de qué se trata la teoría no perturbativa. Simplemente no sabemos qué hacer con la teoría, solo sabemos que la teoría de la perturbación no puede funcionar.

Para obtener más información sobre el teorema de Ostrogradsky y su relación con una posible teoría de la gravedad cuántica, consulte la revisión muy accesible Evitar la energía oscura con modificaciones 1/R de la gravedad , de RP Woodard.

Para cerrar esta respuesta, me gustaría incluir una transcripción del ensayo de Strominger ¿Existe una teoría cuántica de la gravedad ?

El problema de unificar la teoría cuántica de campos y la relatividad general fue resuelto formalmente en 1967 por DeWitt en una serie de artículos clásicos [...]. Utilizando los principios estándar de la mecánica cuántica, construyó un conjunto unitario de reglas de Feynman que describen la dinámica cuántica del campo gravitatorio. Desafortunadamente, la serie de perturbaciones en la constante de Newton no es renormalizable. Esto es evidente a partir del conteo de potencias: el grado ingenuo de divergencia de un L diagrama de bucle es 2 ( L + 1 ) . A menos que ocurran milagros, esperamos, por tanto, por motivos dimensionales, que un contratérmino construido a partir de L potencias del tensor de Riemann serán necesarias para renormalizar el ( L + 1 ) th orden de la teoría de la perturbación. Dado que se introduce una nueva constante de acoplamiento en cada orden, la teoría pierde su poder predictivo. Esta dificultad surge del hecho de que la constante de acoplamiento tiene dimensiones de masa inversa.

Una primera respuesta a este problema fue conjeturar que la teoría completa es de hecho finita [...]. Después de todo, la expansión de la perturbación es realmente una expansión en el parámetro adimensional k 2 mi ( mi es una escala de energía, k 2 = 32 π GRAMO ). Este parámetro de expansión es grande a grandes energías. No se puede esperar que tal expansión proporcione un método sistemático para calcular los efectos de los gravitones virtuales de energías arbitrariamente grandes. La no renormalización de la expansión de acoplamiento débil puede deberse simplemente a una mala expansión de una buena teoría.

La conjetura de finitud tiene motivaciones tanto intuitivas como de cálculo. En el lado intuitivo, existe la vaga noción de que uno no debería poder propagarse a energías donde las longitudes de onda son menores que el radio de Schwarzschild. Por lo tanto, la energía de Planck debería proporcionar un corte natural. Esta noción también ha recibido algún apoyo de cálculos explícitos. Las sumas no perturbativas de los gráficos de [...] escalera y capullo [...] han producido de hecho resultados finitos.

Desafortunadamente, estos cálculos no son invariantes de calibre y no representan una expansión sistemática en algún parámetro pequeño. Además, en los últimos años se han desarrollado ampliaciones sistemáticas en parámetros pequeños a todas las energías [...]. La gravedad cuántica no es finita orden por orden en estas expansiones.

Las perspectivas de una cuantización sensata de la acción de Einstein, por lo tanto, no parecen muy brillantes. El siguiente paso lógico es alterar la acción agregando términos derivados superiores como R 2 [...]. En cualquier caso, uno se ve obligado a agregar estos términos para la renormalización.

Este paso se da con cierta vacilación porque las acciones con cuatro derivadas temporales generalmente describen teorías que parecen patológicas incluso en el nivel clásico. De hecho, se puede demostrar que las teorías clásicas de gravedad de derivadas superiores tienen taquiones o energías negativas para fluctuaciones de longitud de onda pequeñas y largas [...]. Por lo tanto, tienen patologías que son evidentes en escalas de longitud macroscópicas. Entonces, ¿cómo puede ser razonable la versión cuántica de estas teorías? El milagro es que algunas de estas inestabilidades, si no todas, pueden eliminarse sistemáticamente de la teoría cuántica. Esto se discutirá más adelante en la siguiente sección.

Realmente animo al lector interesado a echar un vistazo al resto del ensayo. En pocas palabras, en principio se pueden formular teorías consistentes de la gravedad cuántica, pero a un precio muy alto. De hecho, la mayoría de la gente no ha oído hablar de estas formulaciones, lo que es un claro indicio de que la comunidad no las considera soluciones relevantes ni útiles para el problema GR+QM. Por un lado, generan más preguntas que respuestas reales. Pero voy a dejar que el lector reflexione sobre la situación en sí.

no reason for us to expect that the perturbative expansion has nothing to do with...es decir, hay una razón para esperar que tenga algo que ver con eso? La doble negación es confusa, especialmente en inglés...
¡Interesante! Pero he escuchado a muchas personas enfatizar que la cuantificación ingenua de GR funciona bien como una teoría efectiva a bajas energías (es decir, muy por debajo de la energía de Planck). GRAMO 1 / 2 ) - ¿cómo reconcilias esto con tu resultado?
@tparker depende mucho de lo que entiendas por obras . Realmente te recomiendo leer ¿Qué tan lejos estamos de la teoría cuántica de la gravedad? para obtener una descripción general de los problemas de QG. Es muy pedagógico y, sin embargo, perspicaz.
Buen punto. A menudo escucho afirmaciones de que la gravedad cuántica está plagada de infinitos y condenada al fracaso, pero esto solo es cierto en el contexto de la teoría de perturbaciones.

Creo que la razón por la que a la gente no le gusta esta idea es que para mantener la misma física en escalas de energía más bajas, los coeficientes de los términos no renormalizables deberían crecer a medida que defines la teoría en escalas de energía cada vez más altas. Λ . Esta es la otra cara de la moneda de ser una interacción 'irrelevante'. Pueden volverse infinitos en un valor finito de Λ , en otras palabras, un poste Landau. En ese caso, no podría definir la teoría en escalas de energía más altas manteniendo la misma física que ya tiene en escalas de energía más bajas.

Si no se vuelven infinitos sino que de hecho convergen en un valor finito, un punto fijo ultravioleta, entonces la teoría está realmente bien definida. Esta es en realidad una propuesta seria para la gravedad cuántica llamada seguridad asintótica .

Básicamente, puede seguir impulsando la teoría efectiva y comenzar a ver nueva física, o funciona todo el camino y tiene seguridad asintótica. La opción donde realmente se descompone en algún finito Λ llevaría a la gente a estudiar el regulador. ¿Es una teoría reticular o qué? Eso sería realmente nueva física también.

Estoy de acuerdo en que la existencia de un polo de Landau en energía finita invalidaría mi propuesta. Y la seguridad asintótica haría las cosas bastante sencillas. Pero, ¿no existe también una tercera opción, en la que las constantes de acoplamiento fluyen hacia valores ilimitadamente grandes a alta energía, pero nunca divergen en ninguna escala de energía finita ? En ese caso, la teoría también estaría bien definida, aunque, por supuesto, no podría usar la teoría de la perturbación para estudiarla a alta energía.

Si uno interpreta "físicamente" como los positivistas, no puede haber ningún argumento físico en contra: si la teoría predice los hechos observables, todo está bien y el número de epiciclos no importa. Una preferencia por una teoría con menos parámetros ya va más allá del positivismo, tiene que apoyarse en el contenido empírico popperiano (filosófico) (poder predictivo).

En física real, esto es lo que tienen que hacer los experimentadores: observar más "epiciclos", más términos de orden inferior. Y es trabajo de los teóricos tratar de encontrar una nueva teoría que permita deshacerse de todos los epiciclos ya encontrados.

Lo que uno tiene que esperar es que tratar de encontrar nuevos epiciclos fracase más allá de una longitud crítica. Piense en alguna regularización reticular como una teoría típica donde la aproximación continua, similar a la teoría atómica, falla por debajo de la distancia crítica. Si lo que puede "ver" es, digamos, 1000 veces la longitud crítica, todo parecerá uniforme y tendrá éxito con algunos términos de orden inferior de una teoría efectiva. A las 100 veces, ya necesitará muchos más términos, a las 10 veces comenzará a fallar por completo, y en la longitud crítica, incluso los 10000 términos más bajos no salvarán el juego.

Entonces, aproximadamente, si necesita un término más para explicar las observaciones, espere que ya esté cerca de la longitud crítica donde todo fallará y necesita una nueva teoría.

En cierto sentido, la gravedad es simplemente el primer término de orden más bajo no trivial (no renormalizable), y la longitud de Planck es la predicción correspondiente donde vemos que ya no se puede ignorar en los cálculos QFT. Y donde tenemos, por lo tanto, que esperar que la teoría también empiece a fallar por completo.

Si tuviera dos ecuaciones diferentes para escalas pequeñas y escalas grandes, entonces el problema obvio es que la ecuación para escalas grandes sería inexacta para escalas pequeñas y la ecuación para escalas pequeñas sería inexacta para escalas grandes. Pero lo que no es obvio al principio es que hay un término medio entre la gran escala y la pequeña escala donde ninguna ecuación es correcta. Esa inexactitud de término medio afecta la precisión de las simulaciones de supercomputadoras de los procesos del mundo real.