Motivación para los axiomas de derivadas covariantes en el contexto de la Relatividad General

En la Relatividad General, la idea de una derivada covariante en una variedad es bastante importante y generalmente se define mediante un conjunto de axiomas:

Dejar METRO ser una variedad suave. Una derivada covariante en METRO es un mapa que toma un campo vectorial X y un ( r , s ) -tensores T para todos r , s produciendo el ( r , s ) tensor X T y satisfactoria:

  1. X F = X F , cuando F C ( METRO ) ,
  2. X ( T + S ) = X T + X S
  3. X T ( ω , Y ) = ( X T ) ( ω , Y ) + T ( X ω , Y ) + T ( ω , X Y ) y de la misma manera para todos ( r , s ) -tensor
  4. F X + gramo Y T = F X T + gramo Y T

Sé que en contextos más generales, esta derivada covariante se puede recuperar de una conexión en un paquete principal.

Eso no es lo que estoy hablando aquí. Lo que estoy hablando aquí es exactamente esta definición de derivada covariante, generalmente la que se usa en la Relatividad General.

El problema es: la derivada covariante es muy importante en el contexto de la Relatividad General, sin embargo, la definición con estos axiomas es demasiado abstracta.

¿Hay alguna forma en la que podamos motivar esta definición en el contexto de la Relatividad General? O más en general, ¿hay alguna forma de motivar esta definición de derivada covariante desde el punto de vista de la Física?

Una vez más, podría aceptar los axiomas y seguir adelante, pero dado que esto es demasiado abstracto, y estoy tratando con física y no con matemáticas, me gustaría obtener un poco de motivación y comprensión si es posible.

Respuestas (3)

Seguro. Permítanme comenzar con la historia hasta este punto (algún día la escribiré en algún punto central), para que podamos tener ejemplos salpicados hasta el final.

Lo esencial

Puntos y campos escalares

Así que empiezas con un conjunto de objetos. METRO , y en realidad no vamos a echar un vistazo a la estructura de los objetos en sí (excepto, quizás, por igualdad), así que simplemente los llamamos "puntos" para indicar que no nos importa su estructura interna. Como en la teoría de categorías, los trataremos como cajas negras y describiremos su estructura agregando un conjunto de funciones: en este caso, los campos escalares S ( METRO R ) , que queremos que sea "suave". Para obtener esta suavidad, reinterpretamos funciones R k R como funciones ( METRO R ) k ( METRO R ) aplicándolos "puntualmente". Permítanme señalar esta naturaleza dual con corchetes (lado del campo escalar) y paréntesis (lado de la función), formalmente

F [ s 1 , s 2 , s k ] = pag F ( s 1 ( pag ) , s 2 ( pag ) , s k ( pag ) ) ,
dónde construye una función a partir de un símbolo ( pag ) y una expresión simbólica a la que se asigna ( F ( ) ). No he visto un buen nombre para esta interpretación dual de estas funciones suaves: así, cuando una función suave en C ( R k , R ) se interpreta así, me gusta llamarlos k -functors porque hay un diagrama de categorías genial.

Así que tenemos un conjunto de puntos con otro conjunto S de campos escalares suaves definidos sobre él, y S está cerrado bajo k -funtores para todos k . Estos realmente hacen un montón de trabajo por adelantado; más ( a , b ) = a + b y veces ( a , b ) = a b son ambos 2-funtores y así bajo nuestro axioma que S está cerrado bajo k -funtores (asignan S k S ) ambos son operaciones puntuales permitidas en campos escalares. Aún mejor: defina que un subconjunto de METRO está cerrado si es un núcleo para un campo en S o abierto si su complemento es cerrado, y tienes una topología natural: la multiplicación puntual da una operación de unión, la suma puntual de cuadrados da una intersección, y puedes permitir infinitas intersecciones y uniones finitas sin ningún problema. Usando funciones de choque, incluso puede probar que todos los campos escalares en S son mapas continuos a R en esta topología. Como ejemplo de este punto teórico: ahora podemos exigir que el espacio esté conectado, lo que en topología significa que "el espacio completo no es una unión de dos conjuntos abiertos disjuntos". Volviendo a las definiciones, primero reescribimos la afirmación en su complemento; si A B = METRO con A , B desarticular METRO A estar abierto significa B está cerrado. Entonces, de manera equivalente, no es la unión de dos conjuntos cerrados disjuntos. Así que axiomáticamente estamos diciendo que si s 1 s 2 = 0 es el campo cero (que debe existir porque es un 0 -funtor!) entonces hay algún punto pag tal que s 1 ( pag ) = s 2 ( pag ) = 0. Y esa es una buena propiedad porque estos campos escalares carecen de esta propiedad crucial a la que estamos tan acostumbrados, " a b = 0 implica a = 0 o b = 0. Cada uno de los campos escalares puede ser cero en subconjuntos que no se superponen para multiplicarse y formar cero. Pero mientras el espacio esté conectado, al menos recuperamos algo similar.

Entonces, para ejemplos reales de campos escalares, en la superficie de la esfera los puntos son de hecho { ( X , y , z ) : X 2 + y 2 + z 2 = 1 } , pero nos negamos a mirar dentro directamente. En cambio, comenzamos con campos escalares. X , y , z que extraen estos componentes y se cierran sobre funciones suaves para obtener el conjunto completo de campos escalares. Por otro lado, digamos, θ (el ángulo azimutal, el ángulo polar, creo que está bien) no es un campo escalar suave válido, porque tiene esta desagradable discontinuidad que nos aleja de la topología obvia que nos gustaría usar. También puede ver que "localmente" esto se verá como R 2 y tendrá conjuntos abiertos similares. Podríamos hacer un tratamiento similar con el toro, etc.

Los conjuntos de coordenadas superpuestas.

Entonces tenemos uno de nuestros axiomas más importantes: la afirmación de que alrededor de cualquier punto pag hay un conjunto abierto que contiene pag y D campos escalares que pueden (a) usarse para distinguir puntos en ese conjunto abierto, y (b) pueden usarse para expandir campos escalares, de modo que cada campo escalar en ese conjunto abierto pueda expandirse como un D -funtor de los campos de coordenadas. De nuevo, en la esfera, podemos usar los campos X , y como nuestras coordenadas en los hemisferios norte o sur (que son conjuntos abiertos si no incluimos el ecuador: utilice una función de relieve en z para ver esto). De manera similar, tenemos hemisferios superpuestos con respecto a y y z que no incluyen sus respectivos "ecuadores". Sin embargo, incluso si algún punto está en dos de estos ecuadores, podemos ver que no está en el tercero: cada punto tiene un conjunto abierto y dos campos de "coordenadas", y en ese subconjunto todos los campos escalares se pueden escribir como funciones F ( X , y ) o lo que tienes. Esto significa D = 2 y la esfera es bidimensional. Pan comido.

Campos vectoriales, campos tensoriales.

Ahora introducimos los campos vectoriales que son un conjunto V ( S S ) obedeciendo la ley de Leibniz. Decir F ( metro ) es la derivada parcial de F (que es alguna función en C ( R k , R ) , mente) con respecto a su metro el argumento. Esta ley de Leibniz dice que para cualquier k -funtor F ,

V F [ s 1 , s 2 , s 3 , s k ] = metro = 1 k F ( metro ) [ s 1 , s k ]     V s metro .
Si esto parece surgir de la nada, tenga en cuenta que en realidad está muy lógicamente relacionado con todo lo que dijimos anteriormente. El axioma de cierre no solo crea estas operaciones y , pero el axioma de coordenadas significa que ahora en algún conjunto abierto cada escalar s es en secreto un D -funtor s [ C 1 , C 2 , C D ] . Definir en este subconjunto los campos escalares v i = V C i , ahora tienes directamente que V s = i = 1 D v i i s . Por eso es que estos mapas lineales de Leibniz son "campos vectoriales"; localmente son derivados direccionales de campos escalares. Pero, se definen geométricamente: no están definidos por estos componentes v i , resultan ser representables de esa manera localmente. No es dificil ver eso tu + V está bien definida o que s V está bien definido, pero no es obvio tu V de la definición anterior. Sin embargo, hay un paréntesis de mentira: [ tu , V ] = tu V V tu debe ser Leibniz si ambos tu y V son. (Además, este no es un "espacio vectorial" en el sentido matemático normal; es un "módulo". Esto se debe a que los campos escalares no son un "campo" en el sentido matemático normal: al igual que no se puede dividir por 0, no se puede dividir por un campo escalar que es 0 en algunos lugares, por lo que falla un axioma [la existencia de inversos multiplicativos para cada elemento distinto de cero].)

Una vez que tenemos campos vectoriales, tenemos campos covectoriales (llamemos a esto V ¯ ), los mapas lineales V S . y luego podemos introducir el [ a , b ] campos tensoriales como los mapas multilineales de ( V metro , V ¯ norte ) S . Llama esto V metro norte para números naturales metro , norte . Ahora hay una versión geométrica de la notación de Einstein, donde simplemente creamos muchas copias de este espacio tensorial. V metro norte y anotarlo con una nueva letra T más norte símbolos superiores distintos y metro símbolos inferiores mutuamente distintos. También anotamos cualquier residente de uno de estos espacios con los símbolos correspondientes, y es posible que necesitemos especificar esos símbolos para que estén en un orden dependiente del tensor (es decir, no todos los tensores son simétricos). Los productos externos se definen de forma obvia, por ejemplo, un mapa de T a × T b T a b . Según recuerdo, necesitamos un axioma adicional que diga que todo tensor en, digamos, T d mi a b C puede escribirse como una suma de productos externos de términos en T a × T b × T C × T d × T mi , pero esto es (si no me falla la memoria) aparentemente una consecuencia de la paracompacidad o la existencia de la métrica o algo así. El punto es que cada tensor es oficialmente "cualquier mapa multilineal de vectores y covectores a escalares", pero en secreto es una suma finita de productos externos de vectores y covectores.

De todos modos, la razón por la que este último axioma es importante es que te permite hacer contracciones de índice : expandir en términos de la suma finita, luego puedes aplicar uno de los términos de V ¯ al término correspondiente de V para obtener un campo escalar. Y como es de esperar, podemos simbolizar esto repitiendo un índice entre los vectores superior e inferior, para decir "estos se están uniendo". Entonces v b d a b C vive en T d a C y tiene una interpretación puramente geométrica, no hay "suma implícita" de "componentes".

En este punto también tenemos una operación de gradiente automático en campos escalares; s = V V s mapea cualquier campo escalar a un campo covector. También presentamos el tensor métrico, un especial [ 0 , 2 ] y [ 2 , 0 ] tensor que contrae la identidad [ 1 , 1 ] tensor y muestran una biyección especial entre campos covectoriales y campos vectoriales.

La conexión

Bien, una vez que tengamos toda esta historia, la pregunta obvia es si hay una generalización significativa de a a vectores, ya que está definido de forma única para escalares. Y la respuesta es: "Bueno, no es tan único, pero sí, en muchos casos existe".

Pero básicamente comenzamos con los axiomas. Por ejemplo, partimos de a v b siendo significativo, y luego queremos generalizar a a ( k v b ) con la regla de Leibniz, y encontramos que debe ser v b a k + k a v b . Del mismo modo queremos a ( tu b + v b ) = a tu b + a v b como un requisito de linealidad directa. Nuestra definición de su acción sobre los covectores también es muy sencilla; Recuerda que la contracción tu b tu b es un escalar, y esperamos a ( tu b v b ) = tu b a v b + v b a tu b . Dado que los términos primero y segundo ya están bien definidos, simplemente definimos la acción de a en un covector como la diferencia de esos dos términos, y obtenemos esta ecuación gratis. Así que asumimos que existe alguna generalización de esta forma.

Todas tus ecuaciones se refieren a este operador. a . La conexión se ve fácilmente cuando recuerdas que v a ( a s ) Se define como V s por la definición geométrica del covector a . tu expresión V es por lo tanto equivalente a v a a , y estamos generalizando a para operar en vectores por lo que tiene sentido que entonces v a a también se generaliza. Su primer axioma es simplemente "la forma no generalizada todavía necesita hacer lo que hace el gradiente escalar, no se meta con eso, por favor". Su segundo axioma es "este es un operador lineal" y su tercer axioma es "este es un operador de Leibniz", y su cuarto es solo una consecuencia directa del hecho de que el v a el premultiplicador y la operación de contracción también son lineales en v a , o en otras palabras a mapas T T a .

Una comprensión intuitiva de la degeneración.

La razón básica por la que esto no es único en general, tampoco es demasiado difícil de entender. El transporte paralelo de un escalar tiene sentido; si vas en la dirección de la pendiente esta va aumentando, en la dirección opuesta va disminuyendo, y es solo un número al final del día, así que puedes creer que siempre llegas al mismo número sin importar cómo camines . Pero el transporte paralelo de un vector es más difícil. Digamos que estoy en Kansas City en los EE. UU. y miro hacia el norte y estiro mi brazo derecho como un vector que apunta hacia el este. Ahora camino hacia el polo norte, estoy señalando hacia el sur (por supuesto que sí, todas las direcciones son hacia el sur desde el polo norte), más o menos hacia Madrid. Pero supongamos que primero doy un paso hacia el este, debería correr más o menos hacia Washington, DC: ahora, si camino hacia el norte hacia el polo, estaré apuntando a Roma. El camino que tome importa, y puede predecir aproximadamente que involucra 3 índices de tensor; hay algo allí sobre "estás tomando como entrada un campo vectorial y una dirección (que también es un campo vectorial) y dando como salida un nuevo campo vectorial" que parece relacionar 3 campos vectoriales diferentes, 2 como entrada y 1 como producción. En otras palabras, parece algo así como un [ 1 , 2 ] -campo tensor.

Hagamos esto formalmente con la geometría. Supongamos que tiene dos conexiones diferentes. y . Forme el operador diferencia entre ellos,

Δ a = a a .
Recuerde que ambos asignan campos escalares al mismo valor: ¡no había ambigüedad sobre ese campo de gradiente escalar! Entonces Δ a s = 0. Pero eso significa algo muy poderoso, porque Δ a es Leibniz: significa que Δ a ( s   v b ) = s   Δ a v b . Entonces es un mapeo lineal de campos vectoriales a campos tensoriales. En particular, esto significa que tu a Δ a mapea un campo vectorial a otro campo vectorial linealmente. Agregar un covector w b y obtienes tu a w b Δ a v b siendo un mapeo lineal de dos campos vectoriales tu , v y un campo covector w a un escalar: y esa fue precisamente nuestra definición de un [ 1 , 2 ] campo tensorial. Entonces, de hecho, existe un tensor D tal que tu a w b Δ a v b = D a C b tu a v C w b . Ya que esto vale para todos tu , w podemos eliminarlos y decir de manera equivalente,
a v b = a v b + D a C b v C .
Y este argumento de que D necesita existir también se puede ejecutar hacia atrás, "supongamos que agregamos este término tensorial a , luego obtenemos otra conexión." Así que esto es necesario y suficiente.

Luego, por supuesto, explotamos esta libertad para obtener un caso en el que a b = b a y a gramo b C = 0 dónde gramo es el tensor métrico, y esa es la conexión Levi-Civita. Pero esto ya es una respuesta muy larga. Te daré una pista: define Δ a b = a b b a y use una versión un poco más interesante del argumento anterior para argumentar que esto es en realidad una derivación de escalares y, por lo tanto, toma la forma T a b C C , este T es el tensor de torsión. ¿Qué significa cambiar nuestra conexión agregando D hacerle?

Un enfoque no técnico o satisfactorio (incluso para mí), pero simple, es considerar primero las leyes físicas en espacios-tiempos planos. Allí, la derivada direccional de un tensor (con componentes T α β a lo largo de un campo vectorial (con componentes X m ) tiene componentes X m m T α β . En espaciotiempos planos, este término se transforma como un tensor bajo las transformaciones de coordenadas que dejan invariante al tensor métrico (Minkowski), que son las transformaciones de Lorentz. son lineales, es decir Λ m v X m / X v son constantes. Entonces

(1) m ( Λ α v Λ β ρ T v ρ ) = Λ α v Λ β ρ m T v ρ .

Si ahora está interesado en escribir términos similares pero que conservan el carácter tensorial bajo transformaciones generales que dejan un tensor métrico general invariable, necesita un nuevo objeto (llamémoslo ~ m ) tal que:

(i) recupera la derivada ordinaria en un marco localmente inercial, ya que queremos que la relatividad general sea verdadera en situaciones sin gravedad, y

(ii) satisface en cualquier marco de referencia las mismas propiedades que satisface en marcos localmente inerciales. Esto implicaría linealidad y regla de Leibniz, lo habitual para las derivadas.

Claramente ~ m no puede ser igual a m en cualquier marco de referencia, ya que en general las transformaciones de coordenadas las componentes Λ m v dependen de las coordenadas, y (1) ya no es cierto. Puedes escribir ~ m = m + D m , dónde D m es dependiente del tensor métrico, y D m = 0 en espaciotiempos planos. Ahora, supongo que imponer la compatibilidad de esta derivada con un tensor métrico daría que D m están relacionados con los símbolos habituales de Christoffer para la conexión Levi-Civita, y podría realizar el proceso inverso y obtener su definición libre de coordenadas e independiente del tensor métrico para la derivada covariante direccional que proporcionó en su pregunta.

En resumen, diría que solo quieres algo que se comporte como un derivado pero que su acción sobre un tensor también sea un tensor, ya que eso no sucede con el derivado ordinario.

Nota: Cuando originalmente escribí esta publicación, te leí mal y básicamente me perdí todo el asunto de que la motivación es "física". Sin embargo, pasé mucho tiempo escribiendo esta respuesta y no la eliminaré. Con suerte, esto será útil para usted, pero si no es para usted, entonces para otra persona que encuentre esta pregunta. Dicho esto, agregué una sección al final que brinda una motivación "física" para la derivada covariante. Esta sección está indicada por la oración inicial en negrita.

La motivación es que cuando pasa a una variedad en lugar de un espacio vectorial, pierde la capacidad de diferenciar campos tensoriales.

Si T es un campo tensorial con componentes T v 1 . . . v s m 1 . . . m r , entonces la derivada σ T v 1 . . . v s m 1 . . . m r no se transforma como tensor. Las razones por las que esto es así suelen discutirse en la literatura.

Si queremos saltarnos cualquier definición axiomática de un operador diferencial, todavía tenemos algunas opciones. Una es darse cuenta de que la razón por la que falla la "diferenciación habitual" es porque un vector ubicado en X es un elemento de T X METRO y un vector ubicado en y es un elemento de T y METRO , estos son espacios vectoriales separados, la comparación es imposible.

Luego introducimos la noción de transporte paralelo. Si γ : R METRO es una curva suave, entonces sea PAG γ ( t 1 , t 0 ) : T γ ( t 0 ) METRO T γ ( t 1 ) METRO Sea un mapa de transporte paralelo llamado propagador paralelo asociado con la curva. Mueve un vector situado en T γ ( t 0 ) METRO a T γ ( t 1 ) METRO .

Se necesitan algunos axiomáticos aquí:

  • Queremos que el transporte paralelo sea una transformación lineal.
  • Queremos que el transporte paralelo sea invertible.
  • Queremos PAG γ ( t 0 , t 0 ) = Identificación y PAG γ ( t 1 , t 0 ) 1 = PAG γ ( t 0 , t 1 ) .
  • Queremos PAG γ ( t 1 , t ) PAG γ ( t , t 0 ) = PAG γ ( t 1 , t 0 ) .
  • Queremos PAG γ depender sin problemas de ambos t 1 y t 0 , y queremos " PAG "depender tranquilamente de γ , siendo este último bastante difícil de describir matemáticamente.

Una vez que tenemos esto, podemos definir lo siguiente: Si V es un campo vectorial a lo largo γ (rigurosamente hablando, es una "sección" de la forma V : R T METRO tal que π V = γ ), entonces definimos la derivada covariante de V a lo largo de γ en t 0 como

d V d t | t 0 = límite t t 0 PAG γ ( t 0 + t , t 0 ) 1 V ( t 0 + t ) V ( t 0 ) t t 0 .

Para evaluar este mapa explícitamente, necesitamos hacer algunas modificaciones.

Dejamos ( tu , ψ ) ser una carta local en el vecindario de γ ( t 0 ) = X , y denotamos las coordenadas como X m . Desde PAG γ ( t 1 , t 0 ) es una transformada lineal entre espacios de dimensión finita, se puede representar como una matriz, siempre que se elijan bases en ambos espacios vectoriales. La carta local nos da una base elegida, por lo que tenemos para v = v m m | γ ( t 0 ) , PAG γ ( t 1 , t 0 ) v = PAG γ ( t 1 , t 0 )   v m v v   m | γ ( t 1 ) . Para asegurar eso PAG asigna vectores invariantes a vectores invariantes, necesitamos el índice superior en PAG representación matricial de para transformar como un vector en γ ( t 1 ) y el índice inferior para transformar como un vector en γ ( t 0 ) , entonces PAG γ ( t 1 , t 0 ) es esencialmente un tensor de dos puntos.

Las modificaciones reales suceden ahora. En lugar de considerar una sola curva γ , considere un campo vectorial X y su caudal ϕ X , dónde ϕ X ( X 0 , t ) es la instrucción para moverse a lo largo de la curva integral que comienza en X 0 por el periodo de tiempo t .

Dejar PAG X ( X 0 , t ) denotar PAG γ ( t , 0 ) , dónde γ es la curva integral que comienza en X 0 . Lo que realmente tenemos aquí son las siguientes dependencias: PAG es en realidad una función compuesta en la forma PAG X = PAG ϕ X , entonces tenemos PAG X ( X 0 , t ) = PAG ( ϕ X ( X 0 , t ) ) . Si PAG X ( X 0 , t )   v m es una representación matricial, tenemos

d d t | t = 0 PAG X ( X 0 , t )   v m = PAG   v m ( ϕ X ) σ | ϕ X = ϕ X ( X 0 , 0 ) d ( ϕ X ) σ d t | X = X 0 , t = 0 .

Esto es confuso porque casi toda la notación de derivadas es terrible en algunos aspectos, pero el flujo ϕ X es siempre la identidad para t = 0 , por lo que en realidad tenemos ϕ X ( X 0 , 0 ) = X 0 , por lo que la primera derivada podría escribirse como PAG / X 0 σ , lo cual es absolutamente terrible, porque PAG no es algo que realmente dependa directamente de las posiciones, pero en aras de la legibilidad, lo escribiré de esa manera. Tenemos, entonces

PAG   v m X σ X σ ( X 0 ) ,
ya que la derivada temporal del flujo es el propio campo vectorial.

Todo esto es necesario para finalmente poder tener, por un V que no se extiende para definirse en una región abierta adecuada, en lugar de solo a lo largo de una curva,

d V d t | t = 0 , X = X 0 = X V | X = X 0 = límite t 0 PAG X ( X 0 , t ) 1 V ( ϕ X ( X 0 , t ) ) V ( X 0 ) t = d d t | t = 0 [ PAG X ( X 0 , t ) 1 V ( ϕ X ( X 0 , t ) ) ] .

Queremos expresar esto en términos de coordenadas locales. Antes de hacerlo notemos que si A ( t ) es un t -matriz dependiente que es invertible para todo t arena A ( 0 ) = I , entonces nosotros tenemos

d d t ( A 1 ) | t = 0 = d d t A | t = 0 ,
puede verificarlo usted mismo diferenciando el I = A ( t ) A 1 ( t ) expresión en cero.

También, nombramos a priori PAG   v m X σ como Γ σ v m .

Las expresiones de coordenadas locales siguen como

X V | X = X 0 = d d t [ PAG X ( X 0 , t ) 1   v m V v ( ϕ X ( X 0 , t ) ) ] | t = 0   m | X 0 = = ( PAG 1   v m X σ X σ ( X 0 ) V v ( X 0 ) + d v m V v X σ X σ ) m | X 0 = = ( Γ σ v m X σ V v + σ V m X σ ) m ,
donde en la última línea todas las expresiones se evaluarán en X 0 y en la línea media apareció el delta de Kronecker porque PAG X 1 en t = 0 es solo la identidad.

A partir de esta expresión, podemos leer todas las propiedades de la derivada covariante, por ejemplo, que es tensorial en X y que todavía tiene sentido si V sólo se define a lo largo de una curva.


Observaciones: Como puede ver, este enfoque es mucho más laborioso que definir un operador diferencial algebraico. Y mi declaración de que PAG X = PAG ϕ X es en realidad algo dudoso. Es creíble, pero honestamente no sé cómo hacer esta derivación sin esta declaración "dudosa" o incluso hacerlo sin coordenadas. Las dependencias funcionales reales del propagador paralelo son extremadamente no triviales.

Pero este enfoque tiene la ventaja de que comenzamos con un concepto fácil de motivar de vectores paralelos que se trasladan a lo largo de las curvas, y la familiar derivada covariante quedó muy bien al final.

Si tiene curiosidad por motivar la derivada covariante de Levi-Civita , podemos agregar a la lista de requisitos del transporte paralelo que el transporte paralelo conserva las longitudes y ángulos de los vectores. Cuando define derivadas covariantes de tensores de rango arbitrario, este requisito implica naturalmente que el tensor métrico se transporta en paralelo a lo largo de todas las curvas. Sin embargo, la falta de torsión no se puede motivar tan fácilmente.

Sin embargo, esta motivación no se basó en ningún tipo de física, sino que traté de hacer intuitiva la derivada covariante comenzando por el hecho de que podemos transportar vectores paralelos en el espacio euclidiano, pero no en las variedades en general. Entonces, sabiendo qué propiedades tiene el buen transporte paralelo, lo pusimos a mano.

Si desea una motivación realmente física , lo mejor que podemos hacer es seguir a Weinberg y basar GR en el principio de equivalencia en lugar de la geometría de Riemann. Los dos son en realidad equivalentes porque el principio de equivalencia Coordenadas normales de Riemann La geometría de Riemann y las implicaciones son todas bidireccionales.

De acuerdo con el principio de equivalencia, alrededor de cualquier X evento de espacio-tiempo es posible establecer coordenadas, para lo cual en X y en su vecindad infinitesimal de primer orden, se aplican las leyes de la relatividad especial.

Dejar ξ 0 , . . . , ξ 3 sean estas coordenadas especiales, y sean X 0 , . . . , X 3 ser coordenadas completamente generales. Además, permita que los índices primos se refieran al sistema de coordenadas especial y que los índices no primos se refieran al sistema de coordenadas general.

Si V m es algún campo vectorial, entonces la expresión m V v es válido en relatividad especial, y solo contiene primeras derivadas, así que interpretemos que esta expresión se hace en el sistema de coordenadas especial en el punto X , y escribimos como m V v . Por el principio de equivalencia, esta expresión es válida.

Introduzcamos la notación m V v = m V v para los índices primados, y sea m V v significa el tensor - forma transformada de esta expresión en el sistema de coordenadas general, por lo que

m V v = ξ m X m X v ξ v m V v .

Nos gustaría relacionar la expresión m V v a las derivadas parciales de V v en el sistema general de coordenadas .

Tenga en cuenta que

m V v = ξ m X m m ( X v ξ v V v ) = ξ m X m 2 X v ξ m ξ v V v + ξ m X m X v ξ v m V v ,
y aquí el segundo término de la RHS es esencialmente m V v , entonces restamos el primer término de la derecha de la expresión con la sustitución V v = ξ v X σ V σ .

Lo que obtenemos es

m V v = m V v 2 X v ξ m ξ v ξ m X m ξ v X σ V σ = m V v + Γ m σ v V σ ,
donde nombramos
Γ m σ v = 2 X v ξ m ξ v ξ m X m ξ v X σ .

Notas:

  • Todas las expresiones se evalúan en el punto elegido X , ya que estas coordenadas especiales son solo "relativistas especiales" en ese punto.

  • Este razonamiento es más "físico", porque el principio de equivalencia es esencialmente el principal postulado físico detrás de GR.

  • Este enfoque tiene la ventaja de que la derivada covariante es inmediatamente sin torsión y compatible con la métrica, sin embargo, tiene la desventaja de que no existe una expresión de forma cerrada para los símbolos de Christoffel que solo hacen referencia al sistema de coordenadas general. Esto se puede remediar utilizando la condición de compatibilidad métrica para derivar la expresión habitual para Γ .