¿Los vectores covariantes se pueden representar como vectores de fila y los contravariantes como vectores de columna?

Me gustaría saber cuál es el rango de validez de la siguiente declaración:

Los vectores covariantes se pueden representar como vectores de fila. Los vectores contravariantes se pueden representar como vectores de columna.

Por ejemplo, sabemos que el gradiente de una función se puede representar como un vector fila en el espacio ordinario R 3

F = [ F X , F y , F z ]

y un vector ordinario es un vector columna

X = [ X 1 , X 2 , X 3 ] T

Creo que esto sigue siendo válido en la relatividad especial (la métrica de Minkowski es plana), pero no estoy seguro de ello en la relatividad general.

¿Puede darme algunos ejemplos?

el gradiente F también debe representarse como un vector de columna: el vector de doble fila está dado por el diferencial d F
Entonces, ¿por qué en wikipedia el gradiente se representa como un vector covariante? en.wikipedia.org/wiki/Covariance_and_contravariance_of_vectors Entonces, ¿cómo debo modificar mi pregunta para que sea más precisa?
@Christoph: F = d F .
@KarsusRen: ( F ) = F gramo = d F ; en la práctica, un poco de descuido no hace mucho daño (después de todo, siempre podemos subir o bajar el índice según sea necesario mediante la contracción con el tensor métrico), pero a veces importa, por ejemplo, al derivar la expresión de coordenadas para el operador de Laplace (o, más precisamente, el operador de Laplace-Beltrami) en coordenadas curvilíneas
Entonces, ¿el gradiente habitual de una función en coordenadas cartesianas es o no un vector covariante representable con un vector de fila? me he perdido...

Respuestas (4)

Sí, la declaración también es válida en la relatividad general. Sin embargo, como tenemos que lidiar con tensores de orden superior y, en particular, mixto, las reglas de la multiplicación de matrices (que es de donde proviene la idea de la representación a través de vectores de fila y columna) ya no son lo suficientemente poderosas:

En cambio, la ubicación del índice determina si estamos tratando con una cantidad contravariante (índice superior) o covariante (índice inferior).

Además, por convención, un índice que aparece en un producto tanto en la posición superior como en la inferior se contrae, y las ecuaciones deben cumplirse para todos los valores de los índices libres.

Si la métrica dada no es euclidiana (lo que ya es cierto en la relatividad especial), el mapeo entre cantidades covariantes y contravariantes es más complicado que la simple transposición y los valores reales de los componentes en una base dada pueden cambiar, por ejemplo:

pags m = ( pags 0 , + pags ) pags m = ( pags 0 , pags )
y en general:
pags m = gramo m v pags v
dónde gramo m v denota el tensor métrico y una suma v = 1 norte está implícito.

Bien, en relatividad general con la notación de índice podemos extender las matrices habituales del álgebra lineal a los tensores (1,1), mientras que, por ejemplo, los tensores (0,2) (completamente covariantes) no tienen matriz correspondiente en el álgebra lineal habitual, ¿verdad? Siempre tengo que usar el tensor métrico para subir/bajar índices y obtener tensores (1,1), ¿es correcto?
@linello: esencialmente correcto; eso también es lo que sucede cuando representas un mapa bilineal A : ( tu , v ) R como una matriz a través de tu T A v
@Christoph la última ecuación
pags m = gramo m v pags v
significa que una matriz de fila es igual a una matriz cuadrada por una matriz de columna. es decir, la matriz 1by4 es igual a 4by4 por 4by1. Pero un 4 por 4 por un 4 por 1 debería dar un 4 por 1. Por lo tanto, creo que no es tan simple representar un vector covariante como una matriz fila.

Tiene sentido en general, aunque es una cuestión de convención, no de verdad. Pero nunca conduce a resultados incorrectos si haces esta convención.

Esto se analiza a fondo en la entrada "¿Cómo se relacionan las matrices y los tensores?" del Capítulo B8: Preguntas frecuentes sobre la gravedad cuántica de mi física teórica en http://arnold-neumaier.at/physfaq/physics-faq.html

Tenga en cuenta que en el análisis multivariante, generalmente se define que el gradiente es la transposición de la derivada (exterior), por lo que "gradiente" y "derivada" son nociones ligeramente diferentes. La transposición tiene sentido solo dada una métrica, ya que consiste esencialmente en reemplazar índices elevados/reducidos por índices reducidos/elevados.

Por lo tanto, a diferencia de una derivada exterior covariante, un gradiente ya no es covariante sino contravariante (y, por lo tanto, un vector columna).

Entonces, ¿está sugiriendo que siempre es cierto tratar los vectores covariantes como vectores de fila y los contravariantes como vectores de columna?
@linello: Es una cuestión de convención, no de verdad. Pero nunca conduce a resultados incorrectos si haces esta convención. Agregué a mi respuesta una declaración aclaratoria.
@linello: también, tenga en cuenta que si bien esta convención puede funcionar bastante bien para vectores y formas únicas, no lo ayuda en absoluto al distinguir componentes covarantes y contravariantes de tensores de rango superior. T a b es una matriz de 2x2 igual que T a b .
@JerrySchirmer: No. Solo T b a es una matriz (autoasignación lineal) en el espacio de vectores columna, por lo tanto, tiene una interpretación simple en álgebra lineal. por otro lado, las 2 formas y los bivectores necesitan álgebra multilineal o una métrica distinguida para su interpretación adecuada como aplicaciones lineales.
@ArnoldNeumaier: sin embargo, la gente escribe 2 formas como matrices todo el tiempo. Tome la forma matricial de escribir gramo a b , por ejemplo. Sí, el álgebra no funciona, pero ese es mi punto: el vector de fila/vector de columna se descompone inmediatamente una vez que pasa a tensores de rango superior.
@JerrySchirmer: una vez que escribe algo en coordenadas (y necesita tener coordenadas para escribir un tensor métrico como matriz) tiene una métrica distinguida η en el que las coordenadas son ortogonales, y las matrices se generan subiendo/bajando índices con respecto a esta métrica. - En el artículo de preguntas frecuentes citado, también muestro cómo representar correctamente los tensores métricos, etc. en un estilo de tipo de álgebra lineal.
@ArnoldNeumaier: no es así como lo he hecho. escribo una matriz gramo a b y su inversa gramo a b , y luego utilícelos para subir y bajar índices. Estoy seguro de que su formalismo es equivalente, solo creo que las personas deben tener cuidado al pensar en tensores de rango superior como el mismo tipo de matrices que vería en Álgebra II.

Según mi experiencia, me costó mucho entender la diferencia "física" entre las cosas contra y cov, realmente las entendí solo cuando leí geometría diferencial y me involucré con las formas únicas, más aún, algunos autores (como Shuch) argumentan que es incorrecto decir que los covectores son realmente vectores, son objetos diferentes, ¡son formas únicas!

TMS: estás mezclando co y contra - co -vectores son formas únicas; las formas únicas son, por supuesto, vectores en la medida en que son elementos de un espacio vectorial, simplemente no son vectores tangentes
Sí, lo siento, no lo escribí, y por supuesto abarcan un espacio vectorial, de todos modos, lo que Shuch quiso decir es que las formas únicas son duales a los vectores habituales, y no pueden estar en el mismo espacio vectorial con ellos, por lo que sugiere distinguirlos. , eso es todo.

Esta no es una respuesta completa, sino un intento de aclarar algunos conceptos erróneos sobre el gradiente: en particular, en mi opinión, decir que el gradiente es un covector no tiene mucho sentido.

Hay dos formas de interpretar el concepto de vectores y covectores:

La primera es decir que solo hay una sola entidad, el vector, que tiene componentes covariantes y contravariantes. Esto está inspirado en el cálculo tensorial clásico: cuando hacemos cálculos, a menudo no nos importa la ubicación de los índices de un tensor en particular; después de todo, siempre podemos bajarlos o subirlos (es decir, pasar de vectores de columna a vectores de fila y viceversa). ) por contracción con el tensor métrico.

Si toma este punto de vista, diferencial y gradiente son dos nombres para la misma entidad. Es algo engañoso decir que el gradiente es un covector, ya que lo que realmente queremos decir es que el gradiente es un vector cuyas componentes covariantes están dadas por las derivadas parciales (mientras que sus componentes contravariantes están dadas por la contracción de las componentes covariantes con la inversa del tensor métrico).

El segundo punto de vista, que es el que prefiero, es que los vectores (o, más precisamente, como estamos haciendo geometría diferencial, los vectores tangentes) son distintos de los covectores (también conocidos como formas 1). Sin embargo, el producto escalar da un isomorfismo entre los vectores tangentes y las formas 1. El gradiente es la (pre-)imagen del diferencial bajo este isomorfismo y un vector real.

Estoy completamente en desacuerdo con su primer punto de vista: no existe un solo vector con componentes covariantes y contravariantes, excepto en el modo descuidado donde los conceptos no están completamente bien definidos y puede surgir confusión fácilmente. - Tampoco estoy de acuerdo con su conclusión en ese caso: en notación libre de coordenadas, la única noción bien definida de gradiente es el covector definido por F a = gramo a b d F a .
@ArnoldNeumaier: Tampoco estoy de acuerdo con mi primer punto de vista, pero esa es la intuición que obtuve al visitar conferencias sobre física teórica: las cantidades con índices superiores o inferiores no se discriminaron y, en particular, todos los tensores de orden 1 se llamaron 4- vectores; en cuanto a la última parte de su comentario: esa expresión define un vector, no un covector