Diferencia en el orden de indexación covariante/contravariante en tensores

Advertencia: es posible que se pregunte por qué esto no está en Math Stack Exchange. De hecho, lo es. Hice la misma pregunta allí hace unos días pero no obtuve respuesta, y como creo que esta pregunta está más dirigida al "punto de vista físico" de los tensores y está relacionada con la Convención de Einstein, dejaré la pregunta aquí.

Pregunta original a continuación

Estoy tratando de auto estudiar cálculo tensorial. Estaba tratando de derivar la notación para índices covariantes y contravariantes de una matriz de transformación lineal ( ( 1 , 1 ) tipo tensor).

Así que hice lo siguiente: Probar por el 2 × 2 caso, y luego trate de encontrar un patrón.

Para covectores (covariante) X i : (Primero asumiré que ambos índices de la matriz son contravariantes, solo por simplicidad de notación. Luego "corregiré" esto de acuerdo con lo que he encontrado).

Tenemos:

[ X 1 X 2 ] = [ X 1 X 1 ] [ a 11 a 12 a 21 a 22 ]
Y así, por X j , Voy a tener:
X j = a i j X i
(Convención de suma aquí). Aquí, estoy sumando en el primer índice de la matriz. Para el caso contravariante, tengo:
X i ' = a i j v j
Por lo tanto, sumando en el segundo índice de la matriz. Entonces, pensé en escribir a como a i j , llamando entonces i como el índice covariante y j como índice contravariante . ¿Tiene esto algún sentido? El primer problema que veo es que esto va en contra de la convención de suma, que establece que los índices deben sumarse cuando están en diferentes posiciones (por ejemplo: a i v i significaría una suma en i , pero a i v i no lo haría).

Esta construcción que he hecho sería equivalente a:

a = a i b j mi i mi j

Mi otra pregunta es si es posible llegar a lo siguiente:

a = a i b j mi i mi j

¿Usando álgebra matricial? ¿Es eso posible?

Estoy realmente confundido. He visto tensores de segundo orden escritos como a j i y como a i j . ¿Cuál es la diferencia entre ellos? ¿Actúan de la misma manera en los vectores?

Este tipo de manipulación de tensores se conoce como Cálculo de Ricci en.wikipedia.org/wiki/Ricci_calculus
allí, en los comentarios, sugiero math.stackexchange.com/q/1047994 como una observación de cómo se resuelve esto en matemáticas, pero ahora apoyo a Vitor esperando que alguien pueda elaborar un poco más aquí con el punto de vista de las aplicaciones. Voy a votar porque la valentía pregunta ahora en PhysSE.
@AccidentalFourierTransform No creo que esto sea un duplicado de 1) No hablo específicamente sobre las Transformaciones de Lorentz 2) También estoy interesado en saber si puedo nombrar estos índices como covariante o contravariante y ponerlos en este orden. 3) La pregunta citada tampoco responde a la pregunta de si puedo llegar a ambas construcciones usando álgebra matricial. Si no puedo, ¿por qué no?
Acabo de responder una pregunta muy similar aquí . Para resumir, es muy fácil cometer un error al tratar los tensores como matrices, y realmente no creo que valga la pena hacerlo, pero puedes hacer que funcione.
@knzhou Si bien eso es una aclaración, todavía no creo que responda a mi pregunta, solo sirve como una aclaración sobre las matrices frente al tensor.

Respuestas (1)

Antes que nada, tengo que decir que las matrices no son tensores o viceversa. Las matrices son solo matrices de números, mientras que los tensores son objetos invariantes que tienen componentes covariantes o contravariantes hasta cierto punto.

Por cierto, las igualdades que has escrito no son propias. Si tiene en un lado un tensor contravariante, entonces también necesita tener el otro lado contravariante. Por ejemplo, X j = a i j X i debiera ser X j = a i j X i , o similar.

Primero, me gustaría aclarar algunos aspectos de las transformaciones covariante y contravariante de un tensor antes de escribir la respuesta a la pregunta sobre el orden de los índices, que al final sería trivial.

Tensores y sus componentes

Los tensores no son matrices ni arreglos de números. Los tensores son objetos en un espacio vectorial que no cambia, como un todo, bajo una transformación de coordenadas. Los vectores son un ejemplo de tensores, un vector es el mismo vector incluso si lo expresas en un sistema de coordenadas diferente. Solo los componentes se están transformando ya que las bases están cambiando, pero no todo.

Entonces, expresar un tensor en términos de una matriz de números implica algunas propiedades de transformación específicas en los componentes, dependiendo de la transformación de una base a otra. Estas propiedades consisten en transformaciones covariantes y contravariantes .

Supongamos que trabajamos en bases de coordenadas, d X i y X i . Entonces, tensores A y B podría escribirse en diferentes sistemas de coordenadas de la siguiente manera:

(1.a) A = A i d X i (1.b) = A i d X i
y
(2.a) B = B i X i (2.b) = B i X i
donde se usa la convención de suma. Acabo de escribir los mismos tensores en diferentes sistemas de coordenadas, con o sin prima.

Entonces, los componentes con prima podrían escribirse en términos de componentes sin prima, respectivamente, de la siguiente manera:

(co-variante) A i = A i X i X i
(contra-variante) B i = B i X i X i

donde uno necesita rastrear los primos de acuerdo con la regla de la cadena, cuando se usa la igualdad entre (.a) y (.b), respectivamente. Cualquier cosa que obedezca estas transformaciones en base a componentes y que deje el objeto sin cambios se llama tensor .

Ahora, también puedes expresar el tensor en cualquier base, incluso aquellas no coordinadas, es decir, mi a = mi i a d X i y mi a = ( mi 1 ) a i X i donde el mapa invertible, mi i a ( X ) , se llama campo de tétrada o vierbein (en 4D). Entonces, los nuevos componentes serían A a = A i ( mi 1 ) a i y B a = B i mi i a , respectivamente.

Si considera la versión adecuada de la igualdad que ha escrito, v j = a i j v i , en este contexto que expliqué anteriormente, puede ver cómo se vuelve válido si escribe explícitamente las transformaciones de coordenadas.

Orden de los índices y el tensor métrico

Por otro lado, la relación entre los componentes covariante y contravariante se maneja a través de un mapa llamado métrica :

A i = gramo i j A j
y puedes demostrarlo fácilmente gramo i j también son componentes de un tensor, ya que ambos lados de esta identidad deben transformarse covariantemente.

Ahora, tomemos un tensor de segundo rango, T i j . El orden de los índices es importante si el tensor es asimétrico, es decir, T i j T j i . Si eleva el primer o el segundo índice a través de la métrica, respectivamente,

T i j = gramo i k T k j T j i = gramo i k T j k
se vuelve obvio que solo pueden ser iguales si y solo si T i j es simétrica en sus índices.

Gracias por tu respuesta. 1: Acerca de que mis igualdades son incorrectas con los índices, he dicho que las corregiría más tarde. No puedo entender muy bien tu respuesta. ¿Podría explicar por qué elegir d X i y X i como base? ¿Y no otros vectores base? Tampoco entiendo lo que quiere decir con componentes "principales". Otra cosa: en el último párrafo (que creo que se supone que responde a la pregunta después de todo) me parece que has explicado la diferencia entre T j i y T j i . Lo siento, no puedo relacionar eso con la diferencia entre T j i y T i j .
En cuanto a la recompensa que expiró, comenzaré una nueva, ya que últimamente no pude acceder al sitio.
OK, gracias por los comentarios, editaré la respuesta.