Comprender la diferencia entre vectores covariantes y contravariantes

Estoy viendo el tratamiento de 4 vectores de la relatividad especial, pero no he tenido una formación formal en álgebra tensorial y, por lo tanto, tengo dificultades para comprender algunos de los conceptos que aparecen.

Uno de estos conceptos es la noción de vectores contra y covariantes. Wikipedia describe un vector contravariante que varía con las coordenadas, es decir, el inverso de los ejes de referencia. Da el ejemplo de una matriz de cambio de base. METRO , y un vector contravariante v y establece que en el nuevo conjunto de coordenadas, tenemos:

v = METRO v

Luego establece que un vector covariante varía con los ejes de coordenadas.

¿Significa esto que para un vector covariante tu y matriz de cambio de base METRO tenemos:

tu = METRO 1 tu ?

También tengo problemas para entender el concepto de subir y bajar índices. Por ejemplo, Wikipedia establece que para dos cuatro vectores A , B y usando la suma de Einstein tenemos:

A | B = A m B m = A v B v

Y tengo dificultades para entender cómo se relaciona esto con la otra definición del producto interno:

A | B = A T η B

Si alguien pudiera ayudarme a darme una comprensión más intuitiva de estos conceptos, estaría agradecido.

"¿Significa esto que para un vector covariante tu y matriz de cambio de base METRO tenemos: tu = METRO 1 tu ?" Respuesta rápida: sí, absolutamente. El "producto interno", es decir , un escalar, entre un vector y un covector debe ser independiente de las coordenadas, por lo que el covector debe transformarse como usted dice. Eche un vistazo al excelente libro de texto de Kip Thorne : lea el Capítulo 1 y estoy seguro de que será mucho más sabio: pma.caltech.edu/Courses/ph136/yr2011/1101.2.K.pdf
También eche un vistazo a physics.stackexchange.com/q/87775/26076 Mi forma favorita de visualizar el espacio tangente (vectores contravariantes o "cotidianos") está en mi respuesta a esa pregunta. El primer capítulo de Schutz "Un primer curso sobre relatividad general" también ofrece una buena descripción.
Alguien debería incluir en su respuesta el ejemplo de que el gradiente es en realidad un covector. Encontré ese ejemplo bastante útil al aprender sobre este tema.

Respuestas (2)

Los vectores contravariantes son vectores "estándar". Los vectores covariantes son aplicaciones lineales en vectores contavariantes que producen escalares.

Empecemos por el caso anterior. Si arreglas un par de bases { mi i } i = 1 , , norte y { mi i } i = 1 , , norte en el espacio vectorial de dimensión finita V con dimensión norte , tal que mi i = j A j i mi j para conjunto de coeficientes A j i formando una matriz (necesariamente) no singular A , tienes para un vector dado v V :

v = i v i mi i = j v j mi j
y asi
i v i j A j i mi j = j v j mi j
de modo que:
j ( i A j i v i ) mi j = j v j mi j .
Singularidad de los componentes de v respecto a { mi i } i = 1 , , norte eventualmente implica:
(1) v j = i A j i v i dónde mi i = j A j i mi j
Esta no es más que la regla estándar para transformar componentes de un vector contravariante dado cuando se cambia la base de descomposición.

Pasemos a considerar vectores covariantes . Como dije anteriormente, un vector covariante no es más que un mapa lineal ω : V R ( R puede ser reemplazado por C si se trata de espacios vectoriales complejos o el anillo correspondiente al considerar módulos). Uno prueba fácilmente que el conjunto de aplicaciones lineales de valor real como el anterior forman un espacio vectorial, V , el llamado espacio dual de V . Si { mi i } i = 1 , , norte es una base de V , hay una base asociada

{ mi i } i = 1 , , norte
de V , la base dual , definida por los requisitos (además de la linealidad):
(2) mi k ( mi i ) = d i k
Por lo tanto, un vector covariante ω V siempre se puede descomponer de la siguiente manera:
ω = k ω k mi k
y, usando la linealidad, (2), y
v = i v i mi i
uno ve que
ω ( v ) = k ω k v k .
El RHS no depende de la elección de la base. { mi i } i = 1 , , norte y el correspondiente { mi i } i = 1 , , norte incluso si los componentes de vectores covariantes y contravariantes ω y v depende de las bases consideradas. Obviamente, cambiando la base en V y pasando a { mi i } i = 1 , , norte relacionado con { mi i } i = 1 , , norte a través de (1), { mi i } i = 1 , , norte resulta corresponder a una base dual { mi i } i = 1 , , norte . Un cálculo directo basado en (2) muestra que
mi i = j B j i mi j
dónde
(3) B = ( A T ) 1 .
En consecuencia, para un vector covariante
ω = i ω i mi i = j ω j mi j
dónde
(4) ω j = j B j i ω i .
Esta relación, junto con (3) no es más que la regla estándar para transformar componentes de un vector covariante dado cuando se cambia la base de descomposición.

Esta estructura rara vez aparece cuando se trata de física clásica, donde generalmente se trata de bases ortonormales. La razón es que al cambiar de base y pasar a otra base ortonormal, la matriz A asociando las bases está en el grupo ortogonal, de modo que:

(3) B = ( A T ) 1 = A .
y uno no puede distinguir, trabajando en componentes, entre vectores covariantes y contravariantes, ya que los primeros en (1) y (4) son, de hecho, idénticos. Por ejemplo, para una fuerza fija F aplicado a un punto con velocidad v , el mapa lineal que asocia la fuerza con su potencia en función de v define un vector covariante que podríamos indicar por " F "
π ( F ) : v F v
dónde denota el producto escalar estándar en el espacio de reposo euclidiano de un marco de referencia.

Si el espacio vectorial (¡dimensión finita real!) V está equipado con un producto escalar , generalmente indefinido, que es un mapa bilineal simétrico no degenerado gramo : V × V R , una identificación natural de V y V surge No es más que el mapa lineal y biyectivo que asocia vectores contravariantes con vectores covariantes:

V v gramo ( v , ) V
donde obviamente gramo ( v , ) : V tu gramo ( v , tu ) R resulta ser lineal y así definir un elemento de V como dijo. En componentes, si tu = i tu i mi i y s = i s i mi i , se tiene en vista de la propiedad de bilinealidad cumplida por gramo :
gramo ( tu , s ) = i , j gramo i j tu i s j dónde gramo i j := gramo ( mi i , mi j ) .
La matriz de elementos gramo i j es simétrico y no singular (como gramo es simétrico y no degenerado). Con esta definición, se ve fácilmente que, si tu V es un vector contravariante, el covariante asociado gramo ( tu , ) V tiene componentes:
gramo ( tu , ) k = i gramo k i tu i
de modo que, el producto escalar gramo ( tu , v ) de tu y v también se puede escribir:
gramo ( tu , v ) = i j gramo i j tu i v j = i v i tu i .

Finalmente, cambiando base se tiene que:

gramo ( tu , s ) = i , j gramo yo metro tu yo s metro dónde gramo yo metro := gramo ( mi yo , mi metro ) ,
y
gramo yo metro = i j B yo i B metro j gramo i yo .

Los vectores covariantes y contravariantes se pueden considerar como diferentes tipos de vectores en física. La mayoría de los vectores que ocurren en la física clásica habitual, como la posición, la velocidad, etc., son contravariantes, mientras que el operador de gradiente (que es sorprendentemente similar a un vector; mire la mayoría de las identidades vectoriales) es un vector covariante. Para ser mucho más rigurosos matemáticamente, forman espacios duales entre sí, al igual que los espacios sostén y ket en la Mecánica Cuántica.

Para obtener una comprensión formal de cómo difieren la covarianza y la contravarianza, debe ver cómo cambian los vectores correspondientes cuando se someten a transformaciones. Véase, por ejemplo: http://en.wikipedia.org/wiki/Covariance_and_contravariance_of_vectors Lea atentamente la sección de definición. Como ejemplo muy básico, el vector covariante de un vector columna es un vector fila. Para un número complejo, una definición similar produce su conjugado.

Cuando se trata de productos internos, generalmente depende del espacio con el que esté trabajando. Si se trata de matrices, entonces el producto interior se define de una manera. Si está trabajando en un espacio de Hilbert, el producto interno se define como una integral del vector sujetador y ket en todo el espacio.

En relatividad especial, el producto interno generalmente se define en función de la métrica.

A B = η m v A m B v

Esto puede verse como multiplicar la matriz η con las matrices A , B .

La métrica también es útil para subir y bajar las matrices.