¿Por qué esperamos que nuestras teorías sean independientes de los puntos de corte?

Edición final : ¡Creo que ahora entiendo bastante (toca madera)! Pero hay una cosa que no entiendo. ¿Cuál es la razón física para esperar que las funciones de correlación sean independientes del corte? Es decir, ¿por qué no podríamos optar por un "maestro lagrangiano" en la escala de Planck y hacer nuestra integración solo hasta ese punto?

  • Quizás tenga algo que ver con que los experimentos de baja energía no estén influenciados por la física de la escala de Planck.
  • Tal vez sea porque no hay ninguna escala fundamental, es decir, que Λ debe ser arbitrario en una aproximación QFT, por alguna razón.

¡Otorgaré la recompensa a cualquiera que pueda explicar este acertijo final! ¡Salud!

¡Disculpas si esta pregunta es demasiado filosófica y vaga! He estado pensando en las QFT y la mecánica continua, y he leído sobre su interpretación como teorías efectivas. En estas teorías tenemos cortes naturales en momentos elevados (pequeñas escalas). Hacemos la suposición ( ) que la física a gran escala está desacoplada de la pequeña escala. Por lo tanto, esperamos que nuestras predicciones sean independientes del corte (después de alguna renormalización si es necesario).

¿Por qué la suposición ( ) tan razonable? Supongo que parece correcto desde el punto de vista de la observación, lo cual es una poderosa evidencia empírica. Pero, ¿no podría ser el caso de que la física a pequeña escala tuviera ramificaciones para las observaciones a mayor escala? En otras palabras, ¿sería razonable esperar que las predicciones de un TOE dependieran de algún punto de corte (escala de Planck)?

Esta pregunta puede ser completamente trivial o simplemente ridícula. ¡Lo siento si es así! Sólo estoy tratando de tener una idea real del paisaje.

Editar : me gustaría entender esto físicamente desde la perspectiva puramente QFT, sin recurrir a la analogía con la física estadística. Podría ayudar si reformulo mi pregunta de la siguiente manera.

En el tratamiento wilsoniano de la renormalización obtenemos un flujo de Lagrangianos como la escala de energía Λ cambios. Para una teoría renormalizable asumimos que hay un Lagrangiano desnudo independiente de Λ en el limite Λ . Calculamos con esta cantidad, dividiéndola en términos físicos y contratérminos. Creo que estos contratérminos provienen de moverse hacia abajo en el flujo del grupo, pero no estoy muy seguro...

Pero , ¿por qué nos preocupamos (y calculamos con) el lagrangiano simple , en lugar de uno en alguna escala de energía prescrita (alta) (digamos la escala de Planck)? Realmente no entiendo el punto de que exista un Λ límite.

Relacionado: physics.stackexchange.com/q/57965/2451 y enlaces allí.
Hola, Edward, ¿tienes alguna comprensión de los flujos de RG (especialmente la "imagen de Wilson")? Esto debería ayudar a las personas (tal vez a mí, mañana) a escribir una respuesta adecuada.
@Vibert: Estoy empezando a leer sobre el grupo de renormalización en este momento. No sé mucho al respecto, ¡pero ciertamente me enfocaré más si me ayuda a comprender su respuesta (potencial)! Gracias por adelantado.
Se relaciona la física a diferentes escalas. Véase, por ejemplo, el funcionamiento de las constantes de acoplamiento en este documento general
Solo para aclarar, ahora entiendo los flujos de RG.

Respuestas (2)

Esta es una pregunta muy interesante que generalmente se pasa por alto. En primer lugar, decir que "la física a gran escala está desacoplada de la pequeña escala" es algo engañoso, ya que de hecho el grupo de renormalización (RG) [en el sentido wilsoniano, el único que usaré] nos dice cómo relacionar las pequeñas ¡Escala a gran escala! Pero, por lo general, lo que la gente quiere decir con eso es que si existe un punto fijo en el flujo de RG, entonces alguna física infrarroja (IR) [a gran escala] es independiente de los detalles a pequeña escala [ultravioleta (UV)], eso es todo. es universal Por ejemplo, el comportamiento de las funciones de correlación a larga distancia es independiente de los parámetros básicos (para fijar la configuración, digamos un campo escalar con parámetros básicos r Λ , gramo Λ para la interacción cuadrática y cuartica y Λ es el (por ahora) límite UV finito).

Pero uno no debe olvidar que muchas cantidades físicas no son universales. Por ejemplo, el valor crítico de r Λ (en fijo gramo Λ y Λ ) estar en el punto crítico no es universal. Y esta es una cantidad física en materia condensada/estadística-física, de la misma manera que Λ también tiene un significado físico.

El punto de vista del RG de la vieja escuela (con contratérminos y todo eso) es útil para cálculos prácticos (más allá de un bucle), pero deja todo mucho menos claro. En el espíritu de la física de alta energía con una QFT de todo (es decir, no una teoría efectiva), uno no quiere un corte, porque no tiene sentido, se supone que la teoría funciona a alta energía arbitraria. Esto significa que debemos enviar Λ hasta el infinito. Y aquí viene otra pregunta no trivial: ¿qué entendemos por Λ ?

La respuesta perturbativa a eso es: ser capaz de enviar Λ orden por orden en la perturbación en gramo . Pero, ¿es toda la respuesta a la pregunta? Realmente no. Cuando decimos que queremos Λ , significa que queremos definir una QFT, a un nivel no perturbativo , que sea válida a cualquier distancia, y queremos que esta QFT esté bien definida, es decir, definida por un número finito de parámetros (digamos dos o tres ). Y, de hecho, este límite de corte infinito no perturbativo (que llamaré límite continuo) es mucho más difícil de tomar. De hecho, tener una teoría descrita en el límite Λ por un número finito de parámetros significa que el RG fluye en el UV a un punto fijo. De la misma manera, el RG tiene que fluir en el IR a otro punto fijo para poder estar bien controlado. Esto implica que, de hecho, existen muy pocas QFT en el límite continuo, y que algunas QFT que son perturbativamente renormalizables ( Λ orden por orden en la perturbación en gramo ) no están necesariamente bien definidos en el límite continuo !

Por ejemplo, algunos QFT bien conocidos en la dimensión cuatro (como las teorías escalares o QED) no existen en el límite continuo. La razón es que aunque estas teorías están controladas por un punto fijo en el IR (en "criticidad", que para QED significa al menos electrones con masa cero), no es el caso en el UV, ya que la interacción crece con el cortar. Por lo tanto, uno tiene que especificar el valor de un número infinito de constantes de acoplamiento (incluso "no renormalizables") para seleccionar con precisión una trayectoria RG.

Una de las QFT que existe en el límite continuo es la teoría escalar en dimensión menor que cuatro (digamos tres). En ese caso, en la criticidad, existe una trayectoria que está controlada por un punto fijo en el UV (el punto fijo gaussiano) y en el IR (el punto fijo de Wilson-Fisher). Todas (!) las otras trayectorias no están bien definidas en UV (teorías críticas pero con constantes de acoplamiento arbitrarias) o en IR (no es una teoría crítica). Entonces se ve por qué esto Λ El límite se considera cada vez menos importante en el enfoque moderno de los QFT (efectivos). A menos que uno quiera describir la física a toda escala mediante una QFT, sin usar una teoría sofisticada hasta ahora desconocida a energías superiores Λ . Sin embargo, esta idea de controlar una QFT tanto en el IR como en el UV es importante si desea demostrar que la relatividad general es (no perturbativamente) renormalizable (es decir, puede describirse en todas las escalas mediante algunos parámetros) en el escenario de seguridad asintótica: si hay un punto fijo UV no trivial, entonces existe una trayectoria desde este punto fijo hasta el punto fijo gaussiano (que es, creo, la gravedad de Einstein), y puede tomar el límite continuo, aunque el perturbativo Λ no existe.

Referencia: La mayor parte de esto está inspirado en mi lectura de la muy buena introducción a la RG no perturbativa dada en arXiv 0702.365 , y especialmente en la sección 2.6 "Renormalizabilidad perturbativa, flujos de RG, límite continuo, libertad asintótica y todo eso".

¡Muchas gracias por tu respuesta detallada! Entonces, ¿tengo razón al pensar que el procedimiento habitual de renormalización no tiene sentido? Más bien, uno debería simplemente calcular con un Lagrangiano efectivo con un corte en alguna escala experimental m . Entonces las respuestas dependerán automáticamente de m pero eso está bien porque las constantes de acoplamiento lo hacen? Siento que todavía hay algo mal con mi razonamiento allí. No entiendo con qué se supone exactamente que debes calcular en la imagen wilsoniana. ¿Algunas ideas?
Si por habitual te refieres a "vieja escuela", no, no es inútil. No ayuda a nivel conceptual, pero es realmente útil para los cálculos. La razón es que en este enfoque, no es necesario que se ocupe del número infinito de constantes de acoplamiento que "existen" en el descremado wilsoniano. (El esquema de la vieja escuela corresponde a proyectar todas las trayectorias RG que comienzan lo suficientemente cerca del punto fijo gaussiano a la única trayectoria que relaciona el punto fijo gaussiano y Wilson-Fisher, vea la discusión en la referencia que di).
Además, en el RG wilsoniano, la acción (o lagrangiana) a escala m no es físico por sí mismo. Solo algunas cantidades que se pueden extraer del RG (como los exponentes críticos) son físicas. Esa es una de las principales deficiencias de este enfoque (pero vea el RG no perturbativo, de espíritu wilsoniano, que permite calcular cantidades físicas tales como la termodinámica o las funciones de correlación). Por otro lado, el RG de la "vieja escuela" calcula cantidades físicas: por ejemplo gramo ( m ) es una función de vértice en algún momento específico que es igual a m . Esto es medible y físico.
Correcto, entonces, ¿es correcto el siguiente razonamiento? ¡Si pudiera confirmarme esto, felizmente le otorgaría la recompensa! Queremos que nuestras cantidades físicas (por ejemplo, amplitudes) sean independientes de los puntos de corte. ¿Por qué? Porque de lo contrario podríamos obtener información sobre física a pequeña escala haciendo experimentos a gran escala. ¿Es esto correcto? No veo exactamente por qué ese sería el caso. Estoy bastante seguro de que esta es solo la definición de EFT ahora, pero me gustaría tener una idea física de por qué la independencia de corte es buena. ¡Gracias por adelantado!
La gente suele querer todo independientemente del corte y, lamentablemente, todavía se presenta de esa manera en la mayoría de los libros de texto. Solo quieres eso si piensas que tu teoría es la teoría definitiva que describirá todos los fenómenos en todas las energías. Pero, por lo general, no quiere eso (todas las cond-mat / stat-phys, QCD de baja energía, la teoría de Fermi de las interacciones débiles ...), y está feliz de que haya un corte (físico). Pero, por supuesto, tener una 'teoría renormalizable' (manteniendo solo las interacciones más relevantes) es muy útil técnicamente, ya que simplifica todo (los puntos de corte complican los cálculos).
Para decirlo de otra manera: usar teorías renormalizables (es decir, independientes del corte) significa que queremos olvidarnos de la física a pequeña escala, que realmente no nos importa esa información (información que existe , a menos que quieras el corte ). fuera a ser no físico y por lo tanto verdaderamente infinito). Luego nos enfocamos en las cantidades universales pero nos perdemos algo de información. Siempre tenga en cuenta que no es necesario que hagamos eso (ya veces no queremos hacerlo). El problema del 'corte no físico' se debe en gran parte al punto de vista de la física de alta energía, que desafortunadamente domina en la enseñanza de QFT...
Está bien, eso tiene sentido. Pero todavía estoy atascado en mi última pregunta anterior. En caso de que no quede claro, aquí hay una reformulación. ¿Por qué estaría mal tener una teoría en la que las funciones de correlación dependieran explícitamente de algún punto de corte? Λ 0 . De hecho, en el tratamiento wilsoniano consideramos ese límite como "físico". Sin embargo, tal vez eso daría una teoría impredecible, porque podrías integrar los modos hasta un límite más bajo, y los resultados también dependerían de ese límite... Esto es con lo que estoy luchando ahora: ¿por qué hacer todo las funciones de correlación tienen que ser independientes del corte?
En realidad, ¿es esto lo que dices en tu último comentario? ¿Que la independencia de corte es realmente solo una aproximación que la gente hace en QFT? Supongo que, después de todo, todo en la teoría de cuerdas depende de la escala de cuerdas... Supongo que lo que no entiendo es por qué: asumiendo la independencia de corte suponiendo que la física de baja energía es independiente de la física de alta energía.
(Por cierto, ¡ya te he otorgado la recompensa por toda tu ayuda! ¡Muchas gracias!)
Si realiza una acción inicial más o menos aleatoria en el momento del corte Λ (con eso quiero decir que elige los parámetros iniciales arbitrariamente), debe esperar que las funciones de correlación dependan del corte, al menos a alta energía de orden Λ . Ahora, si la teoría comienza lo suficientemente cerca del punto fijo gaussiano, la mayoría de las interacciones llegarán a cero y podrá concentrarse en algunas de ellas ( r y gramo , las interacciones renormalizables), cuando haya integrado todos los modos anteriores, digamos, Λ 1 . La teoría resultante con corte Λ 1 es 'renormalizable'...
y puede calcular todas las funciones de correlación de una manera que es independiente de Λ 1 , siempre y cuando te concentres en una energía mucho más pequeña que Λ 1 (ver "efecto de río grande" en la referencia que di). Pero en este procedimiento, ha perdido toda la información sobre la física entre Λ y Λ 1 (pero si no te importa, está bien). También debe tener en cuenta que esto es posible porque comenzamos cerca del Gaussiano. Si no, no puedes olvidarte de las altas energías tan fácilmente (ese es el problema de la gravedad cuántica en el escenario de seguridad asintótica).
Entonces, posiblemente, la mejor manera de verlo es simplemente decir que la independencia del límite es solo una propiedad natural de una teoría cuántica de campos, ¿entonces sin una interpretación física? En otras palabras, ¿lo que estaba buscando es el conjunto vacío? Todavía siento que debería haber una razón simple para decir: "hurra, mi respuesta es independiente del corte de alta energía". Entiendo exactamente por qué ahora están en la teoría cuántica de campos (a través del efecto del gran río, etc.). ¡Simplemente no entiendo filosóficamente por qué todos están tan felices por eso!
Supongo que lo siguiente llega al meollo de mi problema. La gente dice "Ajá, el límite es arbitrario, por lo que podemos integrar modos de alto impulso y obtener un grupo de renormalización". Luego calculan: "Ahora tenemos la ecuación CS para el funcionamiento de los acoplamientos a diferentes escalas". Luego dicen: "este correr significa que para bajas energías las cosas se describen mediante teorías renormalizables". Finalmente, "hurra, todas mis respuestas son físicas e independientes de la escala de renormalización. Entonces eso debe ser arbitrario". La lógica es completamente circular. En algún momento necesitas una razón para la primera declaración.
El punto de vista del 'corte no físico' es el enfoque de la vieja escuela (en oposición al punto de vista moderno de EFT), cuando la gente pensaba que QED tenía que ser una teoría fundamental, por definición, sin corte. La gente estaba contenta porque podía decir "¡Tengo la teoría de todo de QED!". Pero nadie piensa hoy en día que debas buscar eso; nadie debería buscar teorías renormalizables, ya que estas teorías solo significan: teorías con solo las interacciones relevantes a bajas energías (muy pequeñas en comparación con Λ ). Por eso es interesante para los fenómenos críticos, porque entonces te interesa...
en la física de muy larga distancia. Pero eso no significa de ninguna manera que estas teorías renormalizables sean lo que deberías estudiar si estás interesado en, digamos, el modelo de Ising a una temperatura arbitraria. En ese caso, las interacciones son muy complicadas (no analíticas en el campo). Pero si solo quiere saber sobre el comportamiento crítico (universal), puede olvidarse de eso, quédese solo r y r , y enviar Λ hasta el infinito. Eso hace que todo sea mucho más simple. Si desea todas las características no universales, debe conservar todos los detalles, y el viejo RG no funcionará. ¿Es más claro?
Derecha. Así que creo que lo entiendo. Suponga que hay algún límite físico Λ . Ahora , mediante la construcción de un QFT, se pueden integrar los modos de alta energía y obtener un Lagrangiano equivalente a una escala más baja. m . Ya que Λ ahora no aparece en el problema, los coeficientes de Lagrange deben haber absorbido la dependencia de Λ . Para calcular procesos a energías inferiores a m puedes usar el lagrangiano original L ( Λ ) o el 'efectivo' L ( m ) . Todo lo que calcule debe ser independiente de Λ , asumiendo que arreglas las constantes en L ( m ) independientemente de...
Λ . Pero ahora nuestra elección de m fue arbitrario, por lo que nada físico puede depender de eso tampoco. En particular, las funciones de correlación solo pueden depender de constantes de acoplamiento de una manera que explica el hecho de que estamos tratando esencialmente con una clase de equivalencia de lagrangianos. De ahí los acoplamientos en funcionamiento. De manera equivalente, puede deducir el funcionamiento de los acoplamientos directamente a partir de la prescripción de Wilson de 'integración de modos de alto impulso'. ¿Estarías de acuerdo con este punto de vista? Básicamente, tenemos suerte de que los QFT estén construidos exactamente para ser independientes de los cortes. no tenemos...
para imponer esto en absoluto! En realidad, esto es solo una aproximación, porque podríamos esperar que el comportamiento a altas energías dependiera del corte de alguna manera física. Esto se manifiesta en el hecho de que la gravedad es 'no renormalizable' en el sentido tradicional del término. Por favor, hágame saber si está de acuerdo con esto, ¡entonces finalmente puedo dejar atrás mis preocupaciones sobre la renormalización!
Sí, creo que lo entendiste :-) Un último punto: no tenemos suerte, esto se debe a la teoría de la perturbación, que existe si el RG comienza lo suficientemente cerca del Gaussiano. Pero este no es necesariamente el caso (los modelos de celosía de espín generalmente no son perturbadores). El efecto del gran río permite enviar el corte perturbativamente al infinito (en d < 4 ), y por el hecho de que el flujo es logarítmico en d = 4 . Así que puede decir que tenemos suerte de que en HEP ​​(y más generalmente en d = 4 ), la mayoría de las teorías están dominadas por la gaussiana (no es el caso de QCD y GR de baja energía).
Pero, en cierto sentido, tenemos suerte de que incluso sea posible tener una noción de flujo RG que comience cerca del Gaussiano. Podrías imaginar un tipo diferente de teoría en la que no existiera la noción de "integración de alto momento", por lo que realmente tenías que entender el comportamiento de alta energía. De hecho, esto es presumiblemente lo que sucede en la teoría de cuerdas y LQG. Entonces, mi argumento es que tenemos "suerte" de haber descubierto la aproximación QFT antes que la teoría de cuerdas o LQG o cualquier otra teoría fundamental que se demuestre que es válida. O "desafortunado", supongo, ¡dependiendo de tu visión de la historia!
+1: Muy informativo. Gracias especialmente por la referencia.

En cada etapa de la renormalización, el hamiltoniano cambia H H ren.1 H ren.2 ; en el proceso, los modos de energía y las escalas de longitud se excluyen como dices. Pero el punto es que cada H , H ren.1 , H ren.2 , (incluyendo el 'original' H ) es una teoría efectiva o emergente aplicable solo dentro de su dominio Ω , Ω ren.1 , Ω ren.2 , . Es decir, la ausencia de teorías fundamentales, incluso en la física de partículas, fue un punto clave destacado por KG Wilson. Por lo tanto, por ejemplo en las teorías de campo, la masa del electrón desnudo metro se convierte simplemente en una construcción matemática; el verdadero como medido y medible es el valor renomalizado metro .

En cuanto al desacoplamiento, lo tomaré desde el punto de vista de los fenómenos críticos. En este punto crítico donde hay correlaciones en todo el sistema, el espaciado de la red no importa como bien sabemos; por lo tanto, son los modos de longitud de onda larga que se extienden por todo el sistema los que más contribuyen. Claramente, el desacoplamiento de las escalas de longitud está justificado en tal situación; debido a que QFT y la mecánica estadística son esencialmente equivalentes a través de la notación integral de ruta de Feynman, el desacoplamiento se justifica en teorías de campo renormalizables. Si alguien puede hacer esto matemáticamente riguroso, siéntase libre...

Como analogía, piense en un sistema clásico con muchas configuraciones i con energías ϵ i ; dependiendo de la temperatura T , la contribución de una configuración se decidirá en gran medida por sus pesos de Boltzmann mi ϵ i / k B T . En cuyo caso, podemos descartar todas las demás contribuciones o modos que tengan pesos despreciables.