Edición final : ¡Creo que ahora entiendo bastante (toca madera)! Pero hay una cosa que no entiendo. ¿Cuál es la razón física para esperar que las funciones de correlación sean independientes del corte? Es decir, ¿por qué no podríamos optar por un "maestro lagrangiano" en la escala de Planck y hacer nuestra integración solo hasta ese punto?
¡Otorgaré la recompensa a cualquiera que pueda explicar este acertijo final! ¡Salud!
¡Disculpas si esta pregunta es demasiado filosófica y vaga! He estado pensando en las QFT y la mecánica continua, y he leído sobre su interpretación como teorías efectivas. En estas teorías tenemos cortes naturales en momentos elevados (pequeñas escalas). Hacemos la suposición ( ) que la física a gran escala está desacoplada de la pequeña escala. Por lo tanto, esperamos que nuestras predicciones sean independientes del corte (después de alguna renormalización si es necesario).
¿Por qué la suposición ( ) tan razonable? Supongo que parece correcto desde el punto de vista de la observación, lo cual es una poderosa evidencia empírica. Pero, ¿no podría ser el caso de que la física a pequeña escala tuviera ramificaciones para las observaciones a mayor escala? En otras palabras, ¿sería razonable esperar que las predicciones de un TOE dependieran de algún punto de corte (escala de Planck)?
Esta pregunta puede ser completamente trivial o simplemente ridícula. ¡Lo siento si es así! Sólo estoy tratando de tener una idea real del paisaje.
Editar : me gustaría entender esto físicamente desde la perspectiva puramente QFT, sin recurrir a la analogía con la física estadística. Podría ayudar si reformulo mi pregunta de la siguiente manera.
En el tratamiento wilsoniano de la renormalización obtenemos un flujo de Lagrangianos como la escala de energía cambios. Para una teoría renormalizable asumimos que hay un Lagrangiano desnudo independiente de en el limite . Calculamos con esta cantidad, dividiéndola en términos físicos y contratérminos. Creo que estos contratérminos provienen de moverse hacia abajo en el flujo del grupo, pero no estoy muy seguro...
Pero , ¿por qué nos preocupamos (y calculamos con) el lagrangiano simple , en lugar de uno en alguna escala de energía prescrita (alta) (digamos la escala de Planck)? Realmente no entiendo el punto de que exista un límite.
Esta es una pregunta muy interesante que generalmente se pasa por alto. En primer lugar, decir que "la física a gran escala está desacoplada de la pequeña escala" es algo engañoso, ya que de hecho el grupo de renormalización (RG) [en el sentido wilsoniano, el único que usaré] nos dice cómo relacionar las pequeñas ¡Escala a gran escala! Pero, por lo general, lo que la gente quiere decir con eso es que si existe un punto fijo en el flujo de RG, entonces alguna física infrarroja (IR) [a gran escala] es independiente de los detalles a pequeña escala [ultravioleta (UV)], eso es todo. es universal Por ejemplo, el comportamiento de las funciones de correlación a larga distancia es independiente de los parámetros básicos (para fijar la configuración, digamos un campo escalar con parámetros básicos para la interacción cuadrática y cuartica y es el (por ahora) límite UV finito).
Pero uno no debe olvidar que muchas cantidades físicas no son universales. Por ejemplo, el valor crítico de (en fijo y ) estar en el punto crítico no es universal. Y esta es una cantidad física en materia condensada/estadística-física, de la misma manera que también tiene un significado físico.
El punto de vista del RG de la vieja escuela (con contratérminos y todo eso) es útil para cálculos prácticos (más allá de un bucle), pero deja todo mucho menos claro. En el espíritu de la física de alta energía con una QFT de todo (es decir, no una teoría efectiva), uno no quiere un corte, porque no tiene sentido, se supone que la teoría funciona a alta energía arbitraria. Esto significa que debemos enviar hasta el infinito. Y aquí viene otra pregunta no trivial: ¿qué entendemos por ?
La respuesta perturbativa a eso es: ser capaz de enviar orden por orden en la perturbación en . Pero, ¿es toda la respuesta a la pregunta? Realmente no. Cuando decimos que queremos , significa que queremos definir una QFT, a un nivel no perturbativo , que sea válida a cualquier distancia, y queremos que esta QFT esté bien definida, es decir, definida por un número finito de parámetros (digamos dos o tres ). Y, de hecho, este límite de corte infinito no perturbativo (que llamaré límite continuo) es mucho más difícil de tomar. De hecho, tener una teoría descrita en el límite por un número finito de parámetros significa que el RG fluye en el UV a un punto fijo. De la misma manera, el RG tiene que fluir en el IR a otro punto fijo para poder estar bien controlado. Esto implica que, de hecho, existen muy pocas QFT en el límite continuo, y que algunas QFT que son perturbativamente renormalizables ( orden por orden en la perturbación en ) no están necesariamente bien definidos en el límite continuo !
Por ejemplo, algunos QFT bien conocidos en la dimensión cuatro (como las teorías escalares o QED) no existen en el límite continuo. La razón es que aunque estas teorías están controladas por un punto fijo en el IR (en "criticidad", que para QED significa al menos electrones con masa cero), no es el caso en el UV, ya que la interacción crece con el cortar. Por lo tanto, uno tiene que especificar el valor de un número infinito de constantes de acoplamiento (incluso "no renormalizables") para seleccionar con precisión una trayectoria RG.
Una de las QFT que existe en el límite continuo es la teoría escalar en dimensión menor que cuatro (digamos tres). En ese caso, en la criticidad, existe una trayectoria que está controlada por un punto fijo en el UV (el punto fijo gaussiano) y en el IR (el punto fijo de Wilson-Fisher). Todas (!) las otras trayectorias no están bien definidas en UV (teorías críticas pero con constantes de acoplamiento arbitrarias) o en IR (no es una teoría crítica). Entonces se ve por qué esto El límite se considera cada vez menos importante en el enfoque moderno de los QFT (efectivos). A menos que uno quiera describir la física a toda escala mediante una QFT, sin usar una teoría sofisticada hasta ahora desconocida a energías superiores . Sin embargo, esta idea de controlar una QFT tanto en el IR como en el UV es importante si desea demostrar que la relatividad general es (no perturbativamente) renormalizable (es decir, puede describirse en todas las escalas mediante algunos parámetros) en el escenario de seguridad asintótica: si hay un punto fijo UV no trivial, entonces existe una trayectoria desde este punto fijo hasta el punto fijo gaussiano (que es, creo, la gravedad de Einstein), y puede tomar el límite continuo, aunque el perturbativo no existe.
Referencia: La mayor parte de esto está inspirado en mi lectura de la muy buena introducción a la RG no perturbativa dada en arXiv 0702.365 , y especialmente en la sección 2.6 "Renormalizabilidad perturbativa, flujos de RG, límite continuo, libertad asintótica y todo eso".
En cada etapa de la renormalización, el hamiltoniano cambia ; en el proceso, los modos de energía y las escalas de longitud se excluyen como dices. Pero el punto es que cada (incluyendo el 'original' ) es una teoría efectiva o emergente aplicable solo dentro de su dominio . Es decir, la ausencia de teorías fundamentales, incluso en la física de partículas, fue un punto clave destacado por KG Wilson. Por lo tanto, por ejemplo en las teorías de campo, la masa del electrón desnudo se convierte simplemente en una construcción matemática; el verdadero como medido y medible es el valor renomalizado .
En cuanto al desacoplamiento, lo tomaré desde el punto de vista de los fenómenos críticos. En este punto crítico donde hay correlaciones en todo el sistema, el espaciado de la red no importa como bien sabemos; por lo tanto, son los modos de longitud de onda larga que se extienden por todo el sistema los que más contribuyen. Claramente, el desacoplamiento de las escalas de longitud está justificado en tal situación; debido a que QFT y la mecánica estadística son esencialmente equivalentes a través de la notación integral de ruta de Feynman, el desacoplamiento se justifica en teorías de campo renormalizables. Si alguien puede hacer esto matemáticamente riguroso, siéntase libre...
Como analogía, piense en un sistema clásico con muchas configuraciones con energías ; dependiendo de la temperatura , la contribución de una configuración se decidirá en gran medida por sus pesos de Boltzmann . En cuyo caso, podemos descartar todas las demás contribuciones o modos que tengan pesos despreciables.
qmecanico
Vibert
eduardo hughes
Trimok
eduardo hughes