Descomposición de Schur para mostrar que la matriz tiene nnn vectores propios ortonormales

De la "Introducción al álgebra lineal" de Gilbert Strang. Estamos tratando de mostrar por descomposición de Schur que todas las matrices simétricas son diagonalizables. Escribimos la descomposición de Schur como A = q T q 1 dónde A es cuadrado, T es triangular superior y q ¯ T = q 1 , q ¯ es el complejo conjugado de q . El texto busca A q = q T y argumenta que la primera columna de q tiene que ser un vector propio. Desde T es triangular y no necesariamente diagonal, el primer paso propuesto es usar la primera columna de q y complementarlo con norte 1 columnas para completar una matriz ortonormal q 1 . Entonces escribimos: q ¯ 1 T A q 1 = [ q ¯ 1 T q ¯ norte T ] [ A q 1 A q norte ] = [ t 11 0 A 2 ]

(1) ¿Por qué obtenemos el lado derecho? Puedo alcanzarlo por multiplicación y por las propiedades de un complejo conjugado. Al mismo tiempo, ¿no debería simplificarse el lado derecho a una matriz triangular? ¿Qué me estoy perdiendo?

Continuando, el libro hace un argumento por "inducción" (no formal). Asume una factorización de Schur A 2 = q 2 T 2 q 2 1 es posible para A 2 de tamaño norte 1 . Entonces se "pone" q 2 y T 2 en q y T : q = q 1 [ 1 0 0 q 2 ] y T = [ t 11 0 T 2 ] y A q = q T

(2) ¿De dónde obtenemos esta transformación? En particular, ¿cómo podemos ver dónde q 1 , T 1 , q 2 , T 2 encajar en q y T ?

Una vez que se aclara esto, puedo mostrar que para una matriz simétrica T es diagonal y la matriz tiene el número requerido de vectores propios.

Para que quede claro, esta es la primera vez que se presenta la descomposición de Schur en el material, por lo que la respuesta puede ser obvia si domina la descomposición, pero definitivamente no lo es en este punto del libro.

Respuestas (1)

En cuanto al primer paso:

Todo lo que sabemos sobre la matriz q 1 es que su primera columna q 1 es un vector propio de A . Intentamos demostrar la existencia de una matriz. q tal que q A q es triangular superior, pero aún no hemos llegado allí.

Ahora, considere el producto

q 1 A q 1 = ( q 1 q norte ) ( A q 1 A q norte ) = ( q 1 A q 1 q 1 A q 2 q 1 A q norte q 2 A q 1 q 2 A q 2 q 2 A q norte q norte A q 1 q norte A q 2 q norte A q norte )
Nótese, sin embargo, que para vectores complejos tu y v , tu v es el producto interior (producto interior hermitiano) de los vectores tu y v . Entonces, desde q 1 es un vector propio, y dado que q 1 es ortogonal a la otra q i , podemos reescribir la matriz anterior como
q 1 A q 1 = ( q 1 A q 1 q 1 A q 2 q 1 A q norte 0 q 2 A q 2 q 2 A q norte 0 q norte A q 2 q norte A q norte )
que es precisamente la forma deseada, si establecemos t 11 = q 1 A q 1 .


En cuanto a la segunda:

Usando la multiplicación de matriz de bloques, tenga en cuenta que

q ~ A q ~ 1 = ( I k 0 0 q ) ( A 11 A 12 A 21 A 22 ) ( I k 0 0 q ) 1 = ( A 11 A 12 q 1 q A 21 q A 22 q 1 )
Tenga en cuenta que I k es el tamaño- k matriz identidad, y que cada una de estas matrices de bloques se particiona de la misma manera.

En una demostración más abstracta, podríamos construir esta matriz de una forma más intuitiva e inmediata. En particular, para construir la transformación lineal q ~ , primero considere su restricción q a cierto subespacio invariante de A .

Para el primer paso, utilizó el hecho de que q 1 es un vector propio para hacer q 2 A q 1 = q 2 λ 1 q 1 = λ 1 q 2 q 1 = 0 ¿Sí? (es decir, reescribir los términos para incluir productos internos)