vectores simultáneamente ortogonales en dos formas bilineales diferentes con matrices diagonales

Estoy interesado en la transformación de similitud ortogonal de matrices diagonales, vea también mis preguntas anteriores propiedades de la transformación de similitud ortogonal y la transformación de similitud ortogonal de una matriz diagonal por una matriz de permutación: dirección inversa . Asumir que D es una matriz diagonal con elementos positivos y diferentes por pares d 1 > > d norte > 0 y q una matriz ortogonal. Si la transformación de semejanza ortogonal q T D q es una matriz diagonal, tenemos expresiones

q i T D q j = 0
para los elementos fuera de la diagonal ( i j ). Al mismo tiempo, tenemos
q i T q j = q i T I q j = 0
para estos elementos y q i = 1 .

Supongo que los vectores unitarios q i y q j solo puede ser ortogonal en ambas formas bilineales (es decir, ambas expresiones anteriores son cero) si tienen un elemento ± 1 .

¿Alguien tiene un contraejemplo o una idea para una prueba? ¿Puede la prueba abordar elementos individuales? ( i , j ) o tendríamos que considerar todos ( i , j ) ? ¿Se perdería la propiedad conjeturada con diferentes suposiciones sobre D , es decir, si algunos elementos de D son idénticos o si algunos son negativos?

Estoy agradecido por cualquier idea.


Hice un poco de progreso, pero me quedé atascado en un punto posterior.

A continuación abandono la suposición de clasificación de los elementos diagonales.

Primero miramos el sistema de ecuaciones para dos columnas q y pag de q :

q T D pag = 0 q T pag = 0.

Podemos transformar este sistema en un sistema lineal homogéneo

( d 1 d 2 d 3 d norte 1 1 1 1 ) ( z 1 z norte ) = ( 0 0 )

dónde z i = q i pag i . Transformamos la matriz de coeficientes

C = ( d 1 d 2 d 3 d norte 1 1 1 1 )

en forma escalonada de fila reducida: Normalizamos d i = d i / d 1 ,

( 1 d 2 d 3 d norte 1 1 1 1 ) ,

restar la primera fila de la segunda,

( 1 d 2 d 3 d norte 0 1 d 2 1 d 3 1 d norte ) ,

normalizar la segunda fila,

( 1 d 2 d 3 d norte 0 1 1 d 3 1 d 2 1 d norte 1 d 2 ) ,

y reste una versión escalada de la segunda fila de la primera

( 1 0 d 3 1 d 3 1 d 2 d 2 d norte 1 d norte 1 d 2 d 2 0 1 1 d 3 1 d 2 1 d norte 1 d 2 ) .

Introducimos para i 3

a i := d i 1 d i 1 d 2 d 2 = d i ( 1 d 2 ) ( 1 d i ) d 2 1 d 2 = d i d 2 1 d 2 b i := 1 d i 1 d 2

y obtener la forma escalonada por filas reducida

C = ( 1 0 a 3 a norte 0 1 b 3 b norte ) .

Para d i d j i j vemos eso 1 d i 0 i 2 , por lo que los denominadores están definidos y b i 0 i 3 y a i 0 i 3 .

(Este párrafo considera violaciones de la suposición de elementos diferentes por pares en D . Puede ser útil más adelante. Si i , j ( i j ) : d i = d j , tenemos que distinguir dos casos. Me caigo d i son iguales, entonces el z i puede elegirse arbitrariamente bajo la restricción i = 1 norte z i = 0 . Si hay al menos un par de elementos diagonales que difieren entre sí, podemos seleccionarlos wlog para que sean d 1 y d 2 , de este modo d 1 d 2 y 1 d 2 0 . Además, seleccionamos los elementos diagonales de tal manera que i ( i 3 ) : d 2 = d i . En este caso tenemos a i = 0 . si tambien j ( j 3 ) : d 1 = d j , también tenemos b j = 0 . El caso a i = b i = 0 no es posible.)

Ahora determinamos el espacio nulo de C . De C z = 0 obtenemos

z 1 + z 3 a 3 + z norte a norte = 0 z 2 + z 3 b 3 + z norte b norte = 0

dónde z 3 , , z norte son parámetros libres. Esto lleva a

z = ( z 3 a 3 z 4 a 4 z norte a norte z 3 b 3 z 4 b 4 z norte b norte z 3 z 4 z norte )

(Tenga en cuenta que esto no es una matriz, sino un vector escrito de tal manera que cada z i aparece en una columna separada), por lo que el espacio nulo está ocupado por las columnas del norte × ( norte 2 ) matriz

( a 3 a 4 a norte b 3 b 4 b norte 1 1 1 ) .

Claramente, podemos encontrar un z 0 tal que ambas formas bilineales se vuelven cero. Por lo tanto, los vectores individuales q , pag que cumplen ambas ecuaciones no son necesariamente vectores con un solo elemento distinto de cero en diferentes posiciones: supongamos que z i 0 , entonces q i 0 y pag i 0 .

Por lo tanto, obviamente tenemos que considerar toda la matriz q :

q i T D q j = 0 i j q i T q j = 0 i j .

Si pudiéramos demostrar que sólo z = 0 permite cumplir todas estas ecuaciones, podríamos demostrar que todos los vectores q i solo puede tener exactamente un elemento distinto de cero (que tiene que ser ± 1 ya que los vectores son vectores unitarios) que aparece en diferentes posiciones. El argumento procede de la siguiente manera: Si z k = q i , k q j , k = 0 para todos k , entonces q i tiene cero elementos donde q j tiene elementos distintos de cero y viceversa. Suponga que un vector q i tiene más de un elemento distinto de cero. Dado que el resto norte 1 vectores q j ( j i ) tienen al menos un elemento distinto de cero (ya que son vectores unitarios), no sería posible encontrar norte 1 otros vectores q j que tienen su elemento distinto de cero en el norte 2 posiciones cero restantes de q i .

¿Alguna idea de cómo mostrar esto? ¡Gracias!

Respuestas (2)

Dejar A frijol norte × norte matriz. Entonces A es diagonal si y solo si cada uno de los vectores base estándar mi 1 , , mi norte es un vector propio de A . Si q es una matriz invertible entonces q 1 A q es diagonal si y solo si las columnas de q son vectores propios de A .

En tu caso, tienes una matriz diagonal. D con entradas distintas, lo que significa que cada vector de base estándar mi i es un vector propio. Debido a que los valores propios son distintos, cada vector propio es un múltiplo de algunos mi i . Esto significa que cuando supones que q 1 D q es diagonal para alguna matriz invertible q , ya sabes que las columnas de q debe contener múltiplos de los vectores propios mi i . Por ejemplo, un potencial q podría parecerse

q = ( 0 6 0 2 0 0 0 0 1 ) .

Ahora aplique el hecho de que su q es ortogonal, por lo que cada entrada debe ser ± 1 .

¡Muchas gracias! Sin embargo, todavía estoy luchando con algunas condiciones y con los "si-y-solo-si". Permítanme separar las dos direcciones en cada una de las dos declaraciones en su primer párrafo: "Si A es diagonal entonces los vectores base son EV de A " se cumple, pero sólo si los elementos diagonales son pares diferentes. "Si los vectores base son EV de A entonces A es diagonal" se cumple (descomposición espectral). "Si las columnas de q son EV de A entonces q 1 A q es diagonal" se sostiene (descomposición espectral). Sin embargo, ¿cómo se demuestra que "si q 1 A q es diagonal entonces columnas de q son EV de A "?
@Ralf Para ser honesto, pienso en A y q 1 A q como las matrices subyacentes al mismo operador lineal, donde A es la matriz en base estándar y q 1 A q es la matriz en otra base. Un poco de reflexión muestra que esta otra base deben ser las columnas de q . Pero también podemos ver esto directamente. Deje que las columnas de q ser q 1 , , q norte , y supongamos A q 1 = a 1 q 1 + + a norte q norte . Entonces q 1 A q mi 1 = q 1 A q 1 = q 1 ( a 1 q 1 + + a norte q norte ) = a 1 mi 1 + a norte mi norte . Pero si q 1 A q es diagonal, entonces esa respuesta final solo debe ser a 1 mi 1 ...
... y así tenemos a 2 = = a norte = 0 . Por eso A q 1 = a 1 q 1 y entonces q 1 es un vector propio de A . La misma lógica se aplica a cualquiera de los q i .

Muchas gracias a Joppy por la prueba. Reescribí la prueba en mi notación, espero haber acertado todos los pasos:

Lo que finalmente probamos es el siguiente Lema:

Dejar D sea ​​una matriz diagonal con entradas distintas de cero y diferentes por pares. Dejar q Sea una matriz ortogonal. Si q T D q entonces es diagonal q = PAG dónde PAG = Ξ PAG es una matriz de permutación con signo ( Ξ es una matriz de signos diagonales con entradas ± 1 , PAG es una matriz de permutación).

(No estoy seguro de si el requisito "distinto de cero" es necesario).

Prueba:

Declaración 1: Los vectores propios de la matriz diagonal D con dos entradas distintas de cero son los vectores base ± mi i , i = 1 , , norte . Prueba: La ecuación característica det { D λ I } = 0 lleva a λ i = d i . La ecuación del vector propio ( D λ i I ) v i = 0 se convierte ( D d i I ) v i = 0 que conduce a la solución ( v i ) i = ± 1 y ( v i ) j = 0 , j i , y por lo tanto v i = ± mi i que concluye la prueba del enunciado 1.

Declaración 2: Suponga que q es una matriz invertible ( q 1 = q T es un caso especial). Si q 1 D q es diagonal, entonces las columnas de q son los vectores propios de D . Prueba: Expresamos q por sus columnas q = ( q 1 q norte ) . Desde q es invertible, las columnas de q abarcar todo R norte (desde el norte las columnas deben ser linealmente independientes). Así cualquier vector puede expresarse como una superposición de los vectores columna, también el vector D q i :

D q i = j = 1 norte a i j q j .

Miramos la columna i de q 1 D q :

( q 1 D q ) mi i = q 1 D q i = q 1 j = 1 norte a i j q j = j = 1 norte a i j mi j .

Ya que suponemos que q 1 D q es diagonal (es decir, es igual a una matriz diagonal D con elementos d i ), lo sabemos

( q 1 D q ) mi i = d i mi i j = 1 norte a i j mi j = d i mi i

de este modo a i i = d i y a i j = 0 , j i . Por lo tanto, la ecuación de superposición anterior se convierte en

D q i = d i q i , i = 1 , , norte .

Vemos que los vectores q i , i = 1 , , norte , son los vectores propios de D , que concluye la prueba del enunciado 2.

De acuerdo con el enunciado 1, los vectores propios de D son los vectores base ± mi j , y de acuerdo con el enunciado 2, los vectores propios de D son las columnas q i . la asignación de j a i puede ser cualquier permutacion π :

q i = ± mi π ( i )

lo que concluye la prueba del Lema.