QM y Renormalización (laico)

Estaba leyendo Más allá de Einstein de Michio Kaku . En él, creo, explica que cuando los físicos tratan una partícula como un punto geométrico, terminan con el infinito al calcular la fuerza del campo de la partícula a medida que te acercas a la partícula.

Primero, ¿entendí bien esa parte?

En segundo lugar, ¿cómo (en términos muy simples) la renormalización intenta arreglar esto en la Mecánica Cuántica? Si puede incluir algún tipo de imagen de palabra, sería genial. La respuesta aceptada irá a la explicación más clara.

Actualizar

Avancé un poco más en el libro (lol) y Kaku habla sobre el uso de la simetría para eliminar las divergencias en las matemáticas. Agradecería una respuesta que incorpore esto también. ¡Gracias chicos!

El problema que no me gusta con esta pregunta es que no creo que ninguna "explicación profana" haga justicia a la explicación de la renormalización... Quiero decir, incluso tratar de explicar QM en términos profanos es horrible. En esencia, la renormalización no tiene uso de "términos simples", pero si quiere ser muy vago, entonces puede decir "bueno, si toma una cantidad infinita y la divide por infinito, ya no es necesariamente infinito y puede ser un número finito"... y eso es lo que "hace" la renormalización.
@Chris: a la renormalización se le puede dar fácilmente una explicación simple, si solo dice qué es en términos wilsonianos modernos. La explicación de infinito/infinito que das arriba no es buena, porque no es cierta --- las cantidades infinitas simplemente no son particularmente interesantes o relevantes, la cosa final es un objeto finito.
¿No se podría pensar en ello como una divergencia de integrales que no queremos divergir?
@rg: Mi problema con la descripción es que las "integrales divergentes" solo son divergentes en k grande, es decir, en espacios de celosía pequeños, y esta divergencia generalmente no refleja ningún problema al tomar el límite de espacio pequeño. La renormalización perturbativa y no perturbativa son ideas diferentes, y la renormalización no perturbativa es más fundamental. Cuando tienes una cantidad continua, tienes que definirla como un límite de algo regularizado, como una red, y esto es tan cierto en cálculo como en teoría cuántica de campos. ¡Pero la gente olvida que lo hizo en cálculo!
@John ¿Qué tipo de simetría tienes en mente? ¿Supersimetría?
@MurodAbdukhakimov fue en el contexto de la unificación de las fuerzas electromagnéticas, débiles y fuertes en QM, antes de la teoría de cuerdas.
en realidad, la renormalización no aparece en QM, solo aparece en QFT ...

Respuestas (4)

La mejor manera de explicar la renormalización es considerar lo que al principio parece un desvío completo: la geometría fractal de Mandelbrot. Desarrollada en las décadas de 1960 y 1970, la geometría de Mandelbrot es la idea clave detrás de los principales avances en física estadística a principios de la década de 1970, liderada por Leo Kadanoff (en su mayoría de forma independiente), pero también asociada con Alexander Polyakov, Michael Fisher, Kenneth Wilson y muchos otros en las décadas de 1970 y 1980, basándose en el trabajo clásico de Fenyman y Onsager, y estas ideas dan a la teoría de la renormalización su forma moderna.

La idea básica se puede resumir en una oración: la renormalización es el análisis de objetos matemáticos cuyas dimensiones fractales a distancias pequeñas son diferentes de lo esperado debido a interacciones no lineales, o incipientemente diferentes de lo esperado, de modo que se modifica la escala ingenua. por logaritmos.

Realmente pertenece a las matemáticas puras, pero se desarrolló casi en su totalidad dentro de la física, siendo Mandelbrot la excepción.

Leyes de potencia

si una cantidad x depende de una cantidad y de tal manera que un cambio de escala de y puede compensarse con un cambio de escala de x, entonces xey están relacionados por una ley de potencia.

X = C y α

Donde C, α son constantes. Las leyes de potencia son importantes porque no tienen escala, lo que significa que una vez que elige una escala para y, la escala para x se determina estableciendo el coeficiente de la ley de potencia en 1, pero no hay una escala absoluta ni unidades absolutas para y. . Esto se ilustra mejor con ejemplos.

Suponga que tiene un péndulo de longitud L y una masa que se balancea en el extremo. El periodo del péndulo es

T = 2 π L gramo

La forma de esta relación no te da información sobre ninguna escala de longitud atómica. Independientemente de las unidades que elija para L, puede encontrar las unidades apropiadas para T cambiando la escala para que el coeficiente de la relación sea de orden 1.

Por otro lado, suponga que observa la densidad aproximada de la atmósfera a medida que asciende en altura y:

ρ ( y ) = C mi A y

La dependencia es exponencial, por lo que determina una escala de longitud, 1/A. Esta escala de longitud está relacionada por una ley de potencia con los otros parámetros, como la densidad y la aceleración de la gravedad, por lo que no es una escala de longitud atómica, sino emergente.

La diferencia entre las leyes de potencia y otras relaciones se puede entender a partir del análisis dimensional. El coeficiente de una ley de potencia mezcla unidades de x y unidades de y, por lo que permite un reescalado simultáneo de ambos compensando cantidades. Los coeficientes en una relación arbitraria seleccionan una escala de variación, por lo que no son invariantes de escala.

Límites de escala

Cuando y tiene una pequeña escala de discreción, como la longitud de un cable contado en número de átomos, espera que en números grandes, el comportamiento de p sea independiente de la discreción subyacente. De modo que medir la dependencia del período del péndulo con la longitud será inútil para revelar el tamaño de los átomos.

Para que esto sea cierto, la información en y tiene que alcanzar un límite de escala, la dependencia de x de y tiene que ser independiente de la escala de grano a distancias cortas que define el continuo.

He aquí algunos ejemplos triviales: let ϵ Sea el tamaño atómico, y el parámetro y es un múltiplo entero de la escala atómica:

y = norte ϵ

Si x es una función de y que obedece a la ley

X ( y + ϵ ) = X ( y ) + ϵ y

Entonces para pequeños ϵ , tu consigues eso X ( y ) = y 2 2 , y esto es cálculo estándar. Si x obedece la ley

X ( y + ϵ ) = X ( y ) + ϵ X ( y )

Entonces para pequeños ϵ , tu encuentras X ( y ) = C mi y . En ambos casos, el cambio de X en cada ϵ El paso está determinado por el cambio en y, y el tamaño del paso se vuelve irrelevante en esta escala.

Pero supongamos que eres perverso y decides escalar los pasos x de manera diferente

X ( y + ϵ ) = X ( y ) + ϵ 2 X ( y )

Entonces como ϵ 0 , obtienes una constante x! La cantidad x deja de cambiar cuando el parámetro de discreción llega a cero. Necesita la potencia adecuada en el ϵ para obtener una relación no trivial entre x e y. Si eliges el poder equivocado al revés

X ( y + ϵ ) = X ( y ) + ϵ .5 X ( y )

Entonces x explotaría en cualquier valor finito de y como ϵ 0 . Solo un exponente, a saber, el exponente trivial 1, da el límite continuo correcto.

Estos son los ejemplos clásicos de cálculo de escala microscópica. El primer ejemplo no trivial es cuando x(y) es la suma de una cantidad aleatoria, η ( y ) , que es un número aleatorio entre -1 y 1, en cada posición discreta. Entonces quieres tomar el límite de ϵ 0 de la suma de números aleatorios, para obtener una versión continua de un paseo aleatorio. Intentas hacer el cálculo:

X ( y + ϵ ) = X ( y ) + ϵ η ( y )

Pero esta elección converge a una constante x en el límite de épsilon pequeño. La razón es que la suma de N cosas aleatorias solo crece como norte , mientras que la ϵ término lo suprime por 1/N. Entonces, para solucionar esto, necesita una ley de potencia diferente en ϵ

X ( y + ϵ ) = X ( y ) + ϵ 1 / 2 η ( y )

Esto define el límite de cálculo estocástico. Hay todo un campo de las matemáticas, el cálculo de Ito, que solo estudia esta ley de escala para el límite del continuo. Es importante en campos como las finanzas, donde los paseos aleatorios aparecen en todas partes, ya que el precio de cualquier producto en un mercado eficiente con fluctuaciones limitadas debe ser un paseo aleatorio.

Entonces, cuando tiene un sistema discreto, como una simulación por computadora que toma pasos discretos en el tiempo, puede encontrar un límite continuo convergente de pequeños pasos, pero solo si elige la ley de escala adecuada para las cantidades que están cambiando. La ley de escala para cantidades fluctuantes es diferente de la ley de escala para cantidades que varían suavemente.

Para cantidades suaves, d X escalas linealmente en d y , o ϵ , y este es el único caso estudiado en el cálculo ordinario. El cálculo estocástico de Ito hace d X escala como la raíz cuadrada de d y , o como ϵ . El asesor de Mandelbrot fue Paul Levy, quien había desarrollado la teoría de los vuelos de Levy, o caminatas aleatorias con pasos distribuidos según la ley de potencias, de modo que existe cierta probabilidad de grandes pasos que no desaparecen cuando se toma un límite de escala. En vuelos Levy, el límite continuo se obtiene escalando d X como ϵ α dónde α es un parámetro ajustable continuo.

Esto significa que Mandelbrot tenía una nueva perspectiva importante: entendió que en los fenómenos naturales, donde el continuo siempre emerge a largas distancias como una aproximación a algo pequeño y granulado, las leyes de escala no tenían que limitarse a potencias enteras, o incluso poderes racionales. Podría tener leyes de escala arbitrarias que definan diferentes límites continuos. Este comportamiento definiría las regularidades en las fluctuaciones que ves en la naturaleza, como la forma irregular de las costas o las formas irregulares de las montañas.

Estas ideas son desarrolladas por Mandelbrot en "La Geometría Fractal de la Naturaleza", de una manera accesible a cualquiera, pues no presupone ningún conocimiento previo profundo de las matemáticas.

Escalado geométrico fractal

Considere una forma fractal, tome la curva de Koch para definirla. Si calcula la longitud de la curva, debe especificar la longitud de la regla con respecto a la cual calcula la longitud. A medida que la regla se vuelve pequeña, la longitud total de la curva tiende al infinito como una potencia, 1 / yo d donde d es la dimensión fractal de la curva.

El significado de esto no es oscuro --- la forma es irregular a distancias pequeñas, por lo que la noción de longitud es inaplicable, y las leyes ordinarias de escala de longitud para curvas diferenciables, que el número de copias de una regla de longitud l que encaja en la curva diverge como L / yo se viola, y la violación de la ley está en el exponente.

Cuando tienes formas microscópicamente fractales, las leyes de escala que esperarías intuitivamente del ejemplo de formas diferenciables cambian, y las cantidades que originalmente eran finitas, como la longitud, se vuelven infinitas. Además, el proceso de definición de la forma fractal se expresa más convenientemente usando lo que en física se llama un regulador --- usando una longitud finita ficticia l, que es la longitud de la regla para medir la forma, y ​​observando cantidades que son estables en el límite yo 0 .

Entonces, la longitud de la curva de Koch no tiene sentido, es infinita, pero el coeficiente de expansión de la ley de potencia que relaciona la longitud con l es finito, y es la medida de Hausdorff de la curva de Koch, la análoga noción de longitud para una curva fractal.

Fluctuaciones fractales en transiciones de fase

Considere una cantidad fluctuante estadística, como la densidad de un fluido en equilibrio térmico. Para temperaturas ordinarias, hay fluctuaciones a escala atómica, y estas fluctuaciones se promedian a escala macroscópica, de modo que el fluido se ve uniforme.

Pero cuando ajustas la presión y la temperatura al punto crítico líquido/gas, las fluctuaciones se correlacionan, de modo que grandes porciones macroscópicas del híbrido gas-líquido tienen una densidad más alta en ciertas regiones, mientras que tienen una densidad baja en otras regiones. Esto es obvio experimentalmente porque un fluido claro en el punto crítico se vuelve blanco lechoso, porque las fluctuaciones de densidad en la escala de la longitud de onda de la luz ahora son significativas.

Para describir este sistema, necesita la densidad promedio de muchos volúmenes atómicos en función de la posición. Definir la función de densidad de larga distancia ϕ ( X ) ser la densidad promedio del fluido en cada punto sobre una caja de longitud yo . Puedes hacer una red de tamaño l, y hay una ley estadística que te dice qué tan probable es que la densidad tenga un valor dado, considerando la densidad en las posiciones vecinas. La ley estadística toma la forma de una distribución de probabilidad para la densidad en un sitio x, dada la densidad en los sitios vecinos y.

La ley de la densidad se puede expresar matemáticamente de la siguiente manera:

Iniciar sesión ( ρ ( X ) ) = < y , X > ( ϕ ( X ) ϕ ( y ) ) 2 + V ( ϕ )

Esto tiene un significado simple: la densidad en un punto tiene un valor medio que está determinado por el valor de los vecinos, con una atracción general hacia algún valor preferido descrito por V ( ϕ ) . La forma de V se puede tomar como un polinomio (esto se explica más adelante)

V ( ϕ ) = a ϕ 2 + b ϕ 4

donde el parámetro b debe ser positivo. Al ajustar el parámetro a, puede llegar a un punto en el que las fluctuaciones aparecen en todas las escalas de longitud y, en este punto, la red se puede hacer arbitrariamente pequeña y encuentra un límite continuo si escala ϕ adecuadamente.

El límite ϵ 0 , ϕ ϵ α ϕ se puede tomar de modo que las fluctuaciones se vuelvan independientes de la red. El parámetro α es la dimensión fractal de ϕ . Para V = 0 , la dimensión fractal del campo depende solo de la dimensión y tiene un valor. Pero para la forma real de V, la dimensión fractal se altera del valor ingenuo.

La teoría del campo cuántico es lo mismo

Los campos cuánticos se definen mediante una integral de ruta de Feynman sobre valores de campo. También se puede entender que describen las fluctuaciones de las partículas, pero la imagen de campo es mejor aquí.

La integral de trayectoria de Feynman dice que uno tiene que considerar todas las posibles fluctuaciones del campo cuántico entre el tiempo inicial y el tiempo final para describir la amplitud de probabilidad cuántica de un tiempo a otro. Esta es la formulación fundamental de la mecánica cuántica en el enfoque lagrangiano de Feynman.

Pero existe una relación matemática simple entre las integrales de trayectoria de la mecánica cuántica de Feynman (al menos para los campos bosónicos) y las distribuciones estadísticas. Los dos están relacionados por un método formal llamado rotación de Wick o formulación de tiempo imaginario.

La rotación de Wick de la mecánica cuántica ordinaria es el cálculo de Ito de caminos brownianos. La rotación de Wick de la teoría de campos convierte cada teoría de campo (bosónica de acción real) en un sistema estadístico, cuyas leyes de escala tienen dimensiones fractales (o anómalas). Las dimensiones fractales significan que el campo típico en la distribución se ve igual después de cambiar la escala del espacio por L y el campo por una potencia de L.

Logaritmos de renormalización

En las teorías cuánticas de campo realistas en el espacio-tiempo de cuatro dimensiones, las leyes de escala reales solo se modifican mediante logaritmos. Estos logaritmos son la señal de un incipiente cambio de exponente. La razón es que en 4 dimensiones, dos recorridos aleatorios solo se cruzan marginalmente, si observa dos recorridos aleatorios en una red que comienzan en dos posiciones separadas por una distancia fija, la probabilidad de que colisionen es cero como el logaritmo del espaciado de la red.

Un logaritmo es solo el límite de un exponente para valores pequeños del exponente. Si observa una ley de potencia con un exponente ligeramente diferente

X = y α + ϵ = y α y ϵ = y α mi ϵ Iniciar sesión y = y α ( 1 + ϵ Iniciar sesión y + ϵ 2 2 Iniciar sesión 2 y + . . . )

La invariancia de escala original de la relación de ley de potencias parece ser rota por los logaritmos, pero simplemente se modifica. Si escalas y por una cantidad A , tú escalas X por A α + ϵ , lo que da ϵ modificaciones a la dimensión de X .

Las cantidades en la teoría cuántica de campos de cuatro dimensiones tienen dimensiones infinitesimalmente modificadas de esta manera, a distancias infinitesimales donde la escala de longitud asociada con la masa de las partículas ya no es visible. Estas correcciones logarítmicas a la escala hacen que la teoría de cuatro dimensiones sea matemáticamente más fácil y conceptualmente más difícil, porque las nuevas leyes de escala fractal no son tan evidentes.

En tres dimensiones, las teorías de campos escalares simplemente adquieren dimensiones anómalas. Una de las formas más interesantes de calcular las dimensiones fractales es usar los logaritmos conocidos en 4 dimensiones para encontrar la dependencia de la dimensión fractal con la dimensión del espacio, y esto brinda predicciones para la escala crítica de fluidos que coinciden con los datos experimentales y la computadora. simulaciones con mucha precisión.

Como de costumbre, me gusta la respuesta, pero eso se debe a que soy un físico con años de formación y no un "lego". Mientras que yo (y aparentemente usted) pienso de manera abstracta en términos de modelar la renormalización en las matemáticas de alta cultura de los fractales y las leyes de escala, alguien sin una base decente en sistemas críticos podría no apreciar por qué uno podría incluso comenzar con una solución tan extrañamente compleja.
Sí, un poco por encima de mi cabeza. Me gusta una representación pictórica, como mencioné en la pregunta, y entiendo qué es un fractal, pero no entiendo la conexión que se está haciendo aquí ... ¡Aunque aprecio el tremendo esfuerzo puesto en esta respuesta!
¿"Establecer en 1"? ¿Quiere decir "pedido 1" como en el ejemplo a continuación? ¿Utiliza escala libre intercambiable con invariante? ¿Qué es "el comportamiento de la p", el período? que te hace usar ϵ , el tamaño del átomo, como el parámetro de cambio (tal que a su vez la relación infinitesimal está relacionada con el límite físico)? También perdí la noción de por qué las leyes de potencia son especiales, ya que también usas el ejemplo exp. es el lineal d X , d y relación la de la recta tangente? ¿Las relaciones con Ints no enteros no se pueden integrar a funciones? ϵ modificaciones? ¿Consideras el ren. procedimiento aquí?
@Nick Kidman: Al establecerlo en 1, me refiero a elegir unidades de x e y de manera codependiente para que el coeficiente de la ley de potencia sea 1. Esto relaciona la dimensión de x con la de y, y solo puede hacerlo para una ley de potencia . El comportamiento de p es un error tipográfico o de edición. La razón por la que uso ϵ es porque da el parámetro que tiende a cero para producir espacio y tiempo continuos, no tiene que ser el tamaño atómico, aunque a menudo lo es, también podría ser la escala de Planck, o incluso la escala de un grano de arena en física granular. Simplemente es el lugar donde se rompe la descripción del continuo.
@genneth: Sé por experiencia que se puede acceder al libro de Mandelbrot sin matemáticas previas, que cualquier persona con una computadora puede simular las transiciones de fase básicas en unas pocas horas, y las leyes de escala anómalas se pueden ver en el sistema con los propios ojos inmediatamente. Los artículos de Kadanoff y Migdal son más accesibles que los métodos de diagramas de Feynman de Wilson y Fisher, y además más perspicaces y generales (pero ambos son importantes). Se requiere una cantidad finita de matemáticas, pero se trata de cálculo y análisis dimensional de la escuela secundaria, algo de programación, no de Feynmanología.
@ John: si pudiera decir qué es exactamente lo que está sobre su cabeza, ayudaría a aclarar la respuesta. La respuesta es simplemente notar que cuando tienes cantidades fluctuantes, las leyes de escala del cálculo se modifican, y el modelo de interacción exacto en una transición de fase te dice cuáles son las nuevas leyes de escala. Cuando esas leyes de escala son cercanas a las de una caminata aleatoria, tiene una renormalización logarítmica de carga y masa, el modelo de caminata aleatoria de partículas funciona, excepto por una deriva lenta de parámetros con escala, que es un cambio de ley de potencia incipiente que se convierte en un ley de potencia real en dimensiones inferiores.
Cabe señalar que se puede encontrar una descripción más completa de las mismas ideas y ejemplos en el capítulo 2 de "El diablo en los detalles" de Batterman.

De hecho, no hay necesidad de considerar las partículas como puntos. Si piensas en la partícula como en una "nube", no hay infinitos tanto en la teoría clásica como en la cuántica.

Por ejemplo, cuando los físicos construyen un modelo mecánico cuántico del átomo de hidrógeno, consideran al electrón como una nube de carga negativa esparcida alrededor del protón. Las cantidades numéricas obtenidas usando este modelo concuerdan muy bien con el experimento.

Pero muchos físicos modernos utilizan modelos en los que las partículas se consideran puntuales. Hay al menos dos razones para ello.

La primera razón es que si uno quiere usar un modelo donde la partícula no es puntual, necesita definir la estructura de la partícula. Pero nadie conoce la estructura interna de las partículas, por lo que no pueden definirla para usarla en el modelo. Tenga en cuenta que en un ejemplo anterior del átomo de hidrógeno, los físicos están tratando con un átomo, no con una partícula. Los físicos pudieron desarrollar tal modelo porque sabían algo sobre la estructura interna del átomo (es decir, sabían que el protón cargado positivamente está en el centro del átomo, el electrón está esparcido alrededor del protón, se conocía el campo eléctrico del protón, etc.). No podemos hacer lo mismo con la partícula porque no sabemos casi nada sobre lo que hay dentro de la partícula.

La segunda razón es la siguiente: hay un modelo que funciona muy bien para colisiones de partículas a altas energías. Este modelo se utiliza, por ejemplo, para colisionadores de partículas como el LHC. La distancia recorrida por la partícula en dicho colisionador es muy grande en comparación con el tamaño (si lo hay) que se puede asociar con la propia partícula. Por lo tanto, es lógico considerar las partículas como objetos puntuales en este modelo, porque el tamaño de la partícula en sí CASI no juega ningún papel.

Escribí "CASI" porque juega un papel cuando uno está tratando de aplicar el modelo no a una cantidad de partículas muy rápidas que chocan a energías muy altas, sino a una partícula MISMA. Por ejemplo, una partícula en reposo no viaja una gran distancia y su energía total no es mucho mayor que su propia energía (que es mi = metro C 2 como probablemente sabes). En este caso, no hay excusa para considerar la partícula como un objeto puntual y el modelo no produce resultados significativos.

Entonces, ¿de dónde vienen los infinitos? Provienen de la conjetura de que las partículas son puntuales y aparecen tanto en la teoría clásica como en la cuántica. Vea lo que Vladimir escribió al respecto para más detalles.

Y lo último relacionado con tu pregunta: ¿qué es la renormalización?

La renormalización es la siguiente:

  1. en el primer paso, la partícula NO SE considera como un objeto puntual. Los físicos dicen que tiene un tamaño λ y realice todos los cálculos para este objeto "considerable". Por supuesto, no aparecen infinitos.

  2. en el segundo paso, los físicos separan los términos que dependen de λ (el "tamaño" de la partícula) de aquellos términos que no dependen de λ .

  3. Los términos que no dependen de la λ tienen algún significado físico independiente y son relevantes para describir algunas (¡pero no todas!) propiedades de las partículas. Se calculan con precisión.

  4. en el siguiente paso, el tamaño de la partícula se hace cada vez más pequeño, es decir λ se aproxima a cero. Los términos que dependen de λ son divergentes, es decir, cuando te acercas λ a cero crecen hasta el infinito. La verdad es que estos términos no sirven para nada, simplemente se dejan caer. Entonces, el objetivo del procedimiento de renormalización es separar los términos finitos de las ecuaciones y deshacerse de otros términos divergentes.

Entonces, al usar la renormalización podemos hacer que el modelo esté "libre" de divergencias, pero aún así no podemos usarlo para calcular algunas propiedades importantes de las partículas. Por ejemplo, no se puede calcular la masa y la carga eléctrica de la partícula, porque el modelo no nos da criterios para identificar estas cantidades. Además, las partículas que se sabe que tienen diferentes masas (como el electrón y el muón) no se pueden distinguir en términos de este modelo.

¡Guau! QCD no es renormalizable? Probablemente alguien debería informar a Wilczek, Gross y Politzer. en.wikipedia.org/wiki/Asymptotic_freedom
Excepto por la última parte sobre que QCD no se puede volver a normalizar, me gusta esta respuesta. (Estoy bastante seguro de que todas las partes del modelo estándar son renormalizables o, de lo contrario, no se considera una teoría válida). Aparte de eso, parece que solo hacen algunos trucos matemáticos divertidos para recortar la grasa que no pueden manejar y trabajar con el resto bajo la SUPOSICIÓN de que están en el camino correcto? ¿Y cómo encaja la simetría en esto?
Aparte de la afirmación de que QCD no es renormalizable, se debe enfatizar que esta idea de usar una escala para la no continuidad y tomar el límite cuando esta escala llega a cero es compartida por la teoría cuántica de campos y el cálculo ordinario. La única diferencia es que en cálculo la ley de la escala es trivial y la teoría matemática fue elaborada (a lo largo de muchos siglos) hasta el punto de que todos pensaban que el continuo se entendía más o menos. Por supuesto, esto es una tontería, y tienes que volver a los mismos procedimientos limitantes que dan el continuo cada vez que obtienes diferentes estructuras.
@John: Sí, más o menos, una teoría que no es renormalizable no se considera válida en este momento, aunque los físicos están abiertos a la idea de encontrar alguna forma de hacer que las teorías no renormalizables funcionen. Todo en el modelo estándar es renormalizable; la gravedad es la que no lo es.
Mea culpa, señores. No sabía que QCD es renormalizable. Gracias por comentarios importantes.
@ Dimension10: ¿Por qué editas esa pregunta de los chicos? No creo que ese sea el enfoque correcto.

La idealización de partículas puntuales que conduce a los infinitos se elimina introduciendo una pequeña perturbación (corte de energía grande = corte de distancia pequeña) en el problema que depende de la escala de corte de energía Λ . Así tenemos una familia de modelos en función de Λ y los parámetros originales del modelo. La física debería ser independiente de dónde se aplica precisamente el corte, ya que no debería importar cuán pequeña es la partícula una vez que es lo suficientemente pequeña.

La física contenida en un modelo debe ser independiente de los parámetros que se utilicen en el modelo particular. En muchos casos de interés, los datos experimentales se pueden describir empíricamente en términos de algunos parámetros físicos clave, como masas y cargas observables básicas. Estos son generalmente diferentes de los coeficientes de carga y masa que aparecen en modelos particulares. Para distinguirlos en un contexto general, uno se refiere a los coeficientes dependientes del modelo, como las masas de los quarks mencionadas anteriormente, como parámetros básicos y a los parámetros independientes del modelo elegidos para la parametrización física: masas medibles, cargas, etc., relacionadas. directamente al experimento, como parámetros renormalizados o vestidos.

El propósito de la renormalización es reparametrizar el Λ -dependiente de hamiltonianos de tal manera que uno puede hacer coincidir los parámetros físicos de una manera numéricamente robusta que es esencialmente independiente de Λ (una vez que es lo suficientemente grande), de modo que al final de los cálculos , uno puede tomar el límite Λ sin dificultades

Cómo hacer esto se explica en términos elementales en http://arnold-neumaier.at/ms/ren.pdf - ¡el ejemplo más simple es un sistema de 2 estados!

Otras explicaciones posiblemente útiles (algunas elementales, otras no tanto) se pueden encontrar en el Capítulo B5: Divergencias y renormalización de Preguntas frecuentes sobre física teórica .

Sí, el potencial de interacción de Coulomb de dos partículas 1 / r tiende a infinito cuando dos partículas puntuales se aproximan, r siendo su distancia relativa. No causa ningún problema cuando la fuerza es repulsiva, por ejemplo, en las colisiones de partículas, ya que la ley de conservación de la energía evita que las partículas que chocan se acerquen demasiado entre sí. Representa un problema cuando se considera una fuerza de atracción y estados ligados de partículas. En los estados ligados, las partículas se mueven una al lado de la otra y, tan pronto como irradian las ondas electromagnéticas, se acercan más y más. La energía radiada es la diferencia entre dos posiciones, algo así como Δ mi = q 1 q 2 ( 1 r 2 1 r 1 ) , por lo que diverge cuando las partículas se acercan demasiado entre sí. No corresponde a experimentos con intercambios finitos de energía y esto representa la crisis de la Electrodinámica Clásica.

En Mecánica Cuántica las partículas son reemplazadas por ondas. Las ondas en sistemas confinados tienen un espectro discreto de las frecuencias adecuadas (resonancia). Esas frecuencias determinan el espectro de energía que se vuelve discreto en QM. Existe el llamado estado fundamental donde el movimiento aún es posible pero la energía toma su mínimo. El sistema ya no puede regalar su energía si está en el estado fundamental. Gracias a un movimiento no trivial en este estado, las partículas (si hablamos en términos de partículas puntuales) no pueden permanecer demasiado cerca unas de otras de forma permanente, por lo que la distancia r = 0 no es alcanzable como un estado permanente. Dicen que hay "nubes" en lugar de trayectorias. En los átomos, el tamaño de la nube es mucho mayor incluso que el tamaño adecuado del protón.

La renormalización de las constantes fundamentales es algo diferente y se refiere a modificaciones ("reparación") de los resultados de cálculo en algunas teorías mal construidas.

Pero siento que la pregunta es exactamente sobre la "renormalización de las constantes fundamentales". ¿Quizás estoy equivocado?
No, no necesariamente las constantes, ya que no creo que sea a eso a lo que se refería Kaku, sino a los cálculos que involucran las interacciones de partículas y campos.
Hay varias "interpretaciones de las renormalizaciones" en la literatura. Tengo mi propio modelo de juguete aquí: arxiv.org/abs/1110.3702