Esto puede ser más una pregunta filosófica que una pregunta de física, pero aquí va. La línea estándar es que los QFT no renormalizables no son predictivos porque necesita especificar un número infinito de acoplamientos/contratérminos. Pero estrictamente hablando, esto solo es cierto si desea que su teoría sea predictiva en todas las escalas de energía .. Mientras solo considere procesos por debajo de ciertas escalas de energía, está bien truncar su Lagrangiano después de un número finito de términos de interacción (o detener su expansión de Feynman en algún orden de vértice de esqueleto finito) y tratar su teoría como una teoría efectiva. De hecho, nuestras dos teorías más precisas de la física, la relatividad general y el modelo estándar, son teorías esencialmente efectivas que solo funcionan bien en ciertos regímenes (aunque no del todo en el sentido técnico descrito anteriormente).
Como físicos, estamos filosóficamente predispuestos a creer que existe una sola teoría fundamental, que requiere una cantidad finita de información para especificarse completamente, que describe procesos en todas las escalas de energía. Pero uno podría imaginar la posibilidad de que la gravedad cuántica se describa simplemente mediante una QFT con un número infinito de contratérminos, y cuanto mayor sea la energía del proceso que desea considerar, más contratérminos debe incluir. Si este fuera el caso, nadie sería capaz de predecir con confianza el resultado de un experimento a una energía arbitrariamente alta. Pero la teoría seguiría siendo completamente predictiva por debajo de ciertas escalas de energía: si quisiera estudiar la física en una escala determinada, solo necesitaría medir experimentalmente el valor de los contratérminos relevantes una vez ., y luego siempre podrá predecir la física a esa escala y por debajo. Entonces, podríamos predecir esa física a energías arbitrariamente altas a las que tendríamos acceso experimental , independientemente de qué tan avanzados tecnológicamente fueran nuestros experimentos en ese momento.
Es cierto que tal escenario sería muy insatisfactorio desde una perspectiva filosófica, pero ¿hay algún argumento físico en su contra?
Usted sugiere que podemos usar una teoría no renormalizable (NR) a energías mayores que el corte, midiendo suficientes coeficientes en cualquier energía.
Sin embargo, una expansión general de una amplitud para un NR que se descompone en una escala lee
Por otro lado, podríamos tener una pila infinita de (NR) teorías efectivas (EFT). Los nuevos campos introducidos en cada EFT podrían subir sucesivamente el límite. En la práctica, sin embargo, esto no es más que descubrir nueva física a energías más altas y describirla con QFT. Eso es lo que hemos estado haciendo en colisionadores durante décadas.
El problema con GR+QM es que los contratérminos incluyen términos derivados superiores,
Por lo tanto, según el teorema de inestabilidad de Ostrogradsky , el sistema es inestable . Esto significa que todo el programa de la teoría de perturbaciones tiene poco sentido, y no hay razón para que esperemos que la expansión perturbativa tenga algo que ver con lo que la teoría realmente nos está diciendo.
Por lo tanto, la expansión perturbativa de QGR no necesita reflejar de qué se trata la teoría no perturbativa. Simplemente no sabemos qué hacer con la teoría, solo sabemos que la teoría de la perturbación no puede funcionar.
Para obtener más información sobre el teorema de Ostrogradsky y su relación con una posible teoría de la gravedad cuántica, consulte la revisión muy accesible Evitar la energía oscura con modificaciones 1/R de la gravedad , de RP Woodard.
Para cerrar esta respuesta, me gustaría incluir una transcripción del ensayo de Strominger ¿Existe una teoría cuántica de la gravedad ?
El problema de unificar la teoría cuántica de campos y la relatividad general fue resuelto formalmente en 1967 por DeWitt en una serie de artículos clásicos [...]. Utilizando los principios estándar de la mecánica cuántica, construyó un conjunto unitario de reglas de Feynman que describen la dinámica cuántica del campo gravitatorio. Desafortunadamente, la serie de perturbaciones en la constante de Newton no es renormalizable. Esto es evidente a partir del conteo de potencias: el grado ingenuo de divergencia de un diagrama de bucle es . A menos que ocurran milagros, esperamos, por tanto, por motivos dimensionales, que un contratérmino construido a partir de potencias del tensor de Riemann serán necesarias para renormalizar el th orden de la teoría de la perturbación. Dado que se introduce una nueva constante de acoplamiento en cada orden, la teoría pierde su poder predictivo. Esta dificultad surge del hecho de que la constante de acoplamiento tiene dimensiones de masa inversa.
Una primera respuesta a este problema fue conjeturar que la teoría completa es de hecho finita [...]. Después de todo, la expansión de la perturbación es realmente una expansión en el parámetro adimensional ( es una escala de energía, ). Este parámetro de expansión es grande a grandes energías. No se puede esperar que tal expansión proporcione un método sistemático para calcular los efectos de los gravitones virtuales de energías arbitrariamente grandes. La no renormalización de la expansión de acoplamiento débil puede deberse simplemente a una mala expansión de una buena teoría.
La conjetura de finitud tiene motivaciones tanto intuitivas como de cálculo. En el lado intuitivo, existe la vaga noción de que uno no debería poder propagarse a energías donde las longitudes de onda son menores que el radio de Schwarzschild. Por lo tanto, la energía de Planck debería proporcionar un corte natural. Esta noción también ha recibido algún apoyo de cálculos explícitos. Las sumas no perturbativas de los gráficos de [...] escalera y capullo [...] han producido de hecho resultados finitos.
Desafortunadamente, estos cálculos no son invariantes de calibre y no representan una expansión sistemática en algún parámetro pequeño. Además, en los últimos años se han desarrollado ampliaciones sistemáticas en parámetros pequeños a todas las energías [...]. La gravedad cuántica no es finita orden por orden en estas expansiones.
Las perspectivas de una cuantización sensata de la acción de Einstein, por lo tanto, no parecen muy brillantes. El siguiente paso lógico es alterar la acción agregando términos derivados superiores como [...]. En cualquier caso, uno se ve obligado a agregar estos términos para la renormalización.
Este paso se da con cierta vacilación porque las acciones con cuatro derivadas temporales generalmente describen teorías que parecen patológicas incluso en el nivel clásico. De hecho, se puede demostrar que las teorías clásicas de gravedad de derivadas superiores tienen taquiones o energías negativas para fluctuaciones de longitud de onda pequeñas y largas [...]. Por lo tanto, tienen patologías que son evidentes en escalas de longitud macroscópicas. Entonces, ¿cómo puede ser razonable la versión cuántica de estas teorías? El milagro es que algunas de estas inestabilidades, si no todas, pueden eliminarse sistemáticamente de la teoría cuántica. Esto se discutirá más adelante en la siguiente sección.
Realmente animo al lector interesado a echar un vistazo al resto del ensayo. En pocas palabras, en principio se pueden formular teorías consistentes de la gravedad cuántica, pero a un precio muy alto. De hecho, la mayoría de la gente no ha oído hablar de estas formulaciones, lo que es un claro indicio de que la comunidad no las considera soluciones relevantes ni útiles para el problema GR+QM. Por un lado, generan más preguntas que respuestas reales. Pero voy a dejar que el lector reflexione sobre la situación en sí.
no reason for us to expect that the perturbative expansion has nothing to do with...
es decir, hay una razón para esperar que tenga algo que ver con eso? La doble negación es confusa, especialmente en inglés...Creo que la razón por la que a la gente no le gusta esta idea es que para mantener la misma física en escalas de energía más bajas, los coeficientes de los términos no renormalizables deberían crecer a medida que defines la teoría en escalas de energía cada vez más altas. . Esta es la otra cara de la moneda de ser una interacción 'irrelevante'. Pueden volverse infinitos en un valor finito de , en otras palabras, un poste Landau. En ese caso, no podría definir la teoría en escalas de energía más altas manteniendo la misma física que ya tiene en escalas de energía más bajas.
Si no se vuelven infinitos sino que de hecho convergen en un valor finito, un punto fijo ultravioleta, entonces la teoría está realmente bien definida. Esta es en realidad una propuesta seria para la gravedad cuántica llamada seguridad asintótica .
Básicamente, puede seguir impulsando la teoría efectiva y comenzar a ver nueva física, o funciona todo el camino y tiene seguridad asintótica. La opción donde realmente se descompone en algún finito llevaría a la gente a estudiar el regulador. ¿Es una teoría reticular o qué? Eso sería realmente nueva física también.
Si uno interpreta "físicamente" como los positivistas, no puede haber ningún argumento físico en contra: si la teoría predice los hechos observables, todo está bien y el número de epiciclos no importa. Una preferencia por una teoría con menos parámetros ya va más allá del positivismo, tiene que apoyarse en el contenido empírico popperiano (filosófico) (poder predictivo).
En física real, esto es lo que tienen que hacer los experimentadores: observar más "epiciclos", más términos de orden inferior. Y es trabajo de los teóricos tratar de encontrar una nueva teoría que permita deshacerse de todos los epiciclos ya encontrados.
Lo que uno tiene que esperar es que tratar de encontrar nuevos epiciclos fracase más allá de una longitud crítica. Piense en alguna regularización reticular como una teoría típica donde la aproximación continua, similar a la teoría atómica, falla por debajo de la distancia crítica. Si lo que puede "ver" es, digamos, 1000 veces la longitud crítica, todo parecerá uniforme y tendrá éxito con algunos términos de orden inferior de una teoría efectiva. A las 100 veces, ya necesitará muchos más términos, a las 10 veces comenzará a fallar por completo, y en la longitud crítica, incluso los 10000 términos más bajos no salvarán el juego.
Entonces, aproximadamente, si necesita un término más para explicar las observaciones, espere que ya esté cerca de la longitud crítica donde todo fallará y necesita una nueva teoría.
En cierto sentido, la gravedad es simplemente el primer término de orden más bajo no trivial (no renormalizable), y la longitud de Planck es la predicción correspondiente donde vemos que ya no se puede ignorar en los cálculos QFT. Y donde tenemos, por lo tanto, que esperar que la teoría también empiece a fallar por completo.
Si tuviera dos ecuaciones diferentes para escalas pequeñas y escalas grandes, entonces el problema obvio es que la ecuación para escalas grandes sería inexacta para escalas pequeñas y la ecuación para escalas pequeñas sería inexacta para escalas grandes. Pero lo que no es obvio al principio es que hay un término medio entre la gran escala y la pequeña escala donde ninguna ecuación es correcta. Esa inexactitud de término medio afecta la precisión de las simulaciones de supercomputadoras de los procesos del mundo real.
una mente curiosa
parker
Cort Amón
usuario139561
Profesor Legolasov
rastrillo lunar
Arnold Neumaier
Profesor Legolasov
rastrillo lunar
Profesor Legolasov