Para mí, el gradiente de un campo escalar (por ejemplo, en tres dimensiones) es simplemente (formalmente)
.
¿De qué manera necesitamos una métrica?
Pero algunas personas me dijeron que solo en una variedad de Riemann (con una métrica) podemos definir el gradiente.
En cualquier variedad podemos definir el diferencial de un escalar . El diferencial es una forma 1 : algo que come vectores y escupe escalares, o incluso menos formalmente, algo con un índice hacia abajo. Tenemos la siguiente fórmula para el diferencial,
Si por gradiente te refieres a un campo vectorial , entonces para convertir formas 1 en campos vectoriales, necesitas algo para "elevar el índice". Ahí es donde entra la métrica.
El punto principal del gradiente es tener la siguiente ecuación:
En coordenadas locales , utilizando la notación de Einstein, el producto escalar de y Se puede escribir como:
el diferencial de es (nótese que es independiente de la métrica) así que si escribimos tenemos:
Por otra mano, , donde ya que queremos siendo un vector escribimos .
Observamos ahora que si establecemos (dónde es el inverso de la métrica y ) tenemos:
que es lo que queríamos.
Ahora está claro que el gradiente de depende de la métrica ya que usamos el inverso de la métrica para definirlo.
Se trata de hacer que las cosas sean independientes de las coordenadas. En la base estándar ortonormal del espacio euclidiano , el gradiente dice
Poniendo estos juntos, terminamos con
Esto se puede escribir de forma invariable.
Tenga en cuenta que, en contraste con el gradiente, el diferencial ya es invariante de forma
Esto conduce a la definición libre de coordenadas del gradiente en términos de la métrica en el espacio tangente
es una variedad de Riemann con métrica , y en esta variedad con la métrica especificada, el gradiente toma la forma que le has dado. Con una variedad más general, la derivada compatible con la métrica tiene términos adicionales dados por los símbolos de Christoffel, pero el gradiente de un campo escalar seguirá estando dado por las derivadas parciales.
Me parece más simple definir primero la derivada total, ya que es independiente de la métrica y noto que es un operador lineal que asigna diferenciales a diferenciales:
Para definirlo en términos de componentes invocamos derivadas parciales:
Si bien esta derivada como operador no es en sí misma un vector sino un vector dual, el teorema de representación de Reisz dice que (en dimensiones finitas) cualquier vector dual puede expresarse tomando el producto interno (punto) (que es la métrica) con respecto a un vector único.
En particular, el vector que hace esto para el funcional derivado total es el vector gradiente.
Entonces, la respuesta a su pregunta es que para pasar de la derivada (independiente de la métrica) al gradiente, debemos invocar la métrica. En forma de componentes (suma de índices repetidos):
Y finalmente, cuando miras lo que sucede bajo el cambio general de bases y el cambio de sistemas de coordenadas, las derivadas parciales no se transforman como componentes de un vector pero las derivadas parciales cuando se contraen con la métrica sí se transforman.
No soy físico y no soy bueno con los tecnicismos de tensores, pero tenía el deseo de comprender este problema, ya que me encontré con la métrica de Fisher Information en el campo de la geometría de la información.
Así que aquí hay una perspectiva muy informal que conecta esto con un procedimiento de álgebra lineal súper básico. Creo que es más o menos correcto en espíritu y definitivamente me ayudó a entender esto.
Esto toma prestadas algunas ideas de la serie de cálculo tensorial de MathTheBeautiful. Recomendaría su video sobre la base de la covariante si no está familiarizado con él.
Dejar ser una función definida en algún espacio independiente de coordenadas "geométricas en bruto". Dejar denote un vector en este espacio. Entonces es el valor de en el punto del espacio . Podríamos pensar en el "gradiente verdadero" (quizás abusando de la notación) como . Este gradiente es el vector tal que el producto interno de otro vector en el espacio con le da la derivada direccional (es decir, la parte lineal del aumento de en la dirección de con "velocidad" proporcional a la magnitud de ).
Digamos que tenemos un sistema de coordenadas aleatorio . La base covariante es el conjunto de derivadas de un vector de posición en el espacio geométrico con respecto a cada coordenada.
Entonces, en algún punto de evaluación en nuestro espacio, la base covariante será
El objetivo es tomar los parciales de nuestra función. escribir nuestras coordenadas ( ) con los que comenzamos, y los usamos para obtener coeficientes para nuestra base (covariante) para que podamos expresar el gradiente en la base.
Por definición del gradiente (o podría pensar en la regla de la cadena), cada derivada parcial es el producto interno del vector base correspondiente con el gradiente, .
Esto tiene sentido. La escritura parcial es la derivada direccional de en la dirección de , ya que esa es la dirección en la que te mueves cuando aumentas .
Ahora, lo que probablemente sea una notación realmente abusiva. Dejar sea la matriz con la base covariante como vectores columna. Entonces podemos expresar el "vector" de parciales de la siguiente manera
Solo estamos multiplicando matrices por el gradiente para obtener la "lista" de productos internos discutidos anteriormente.
Supongamos que podemos expresar el gradiente en nuestra base (después de todo, nuestro objetivo final). En realidad, no sabemos cuáles serían los coeficientes, pero los escribiremos como incógnitas e intentaremos recuperar los coeficientes. Suponer
Ahora sustituyamos la expresión de la extrema derecha en la ecuación anterior para los parciales.
Nota es el tensor métrico. Es la matriz de todos los productos internos por pares de nuestros vectores base covariantes. Y debería ser invertible. Así que para recuperar , , y , simplemente multiplicamos ambos lados por .
El verdadero gradiente es alguna combinación lineal particular de nuestros vectores base covariantes. Las derivadas parciales wrt coordenadas son cada uno de los respectivos vectores base punteados con esta combinación lineal. Ahí es donde el tensor métrico, la matriz de productos internos por pares de la base covariante, viene de. Para recuperar los coeficientes de esta combinación lineal, tenemos que "invertir" el .
Si por la palabra "gradiente" te refieres a la forma 1 cuyos componentes son
(Esto repite la respuesta de Robin Ekman; mi objetivo es aclarar).
joshfísica
Cristóbal
joshfísica
Ideal Máximo