De la "Introducción al álgebra lineal" de Gilbert Strang. Estamos tratando de mostrar por descomposición de Schur que todas las matrices simétricas son diagonalizables. Escribimos la descomposición de Schur como dónde es cuadrado, es triangular superior y , es el complejo conjugado de . El texto busca y argumenta que la primera columna de tiene que ser un vector propio. Desde es triangular y no necesariamente diagonal, el primer paso propuesto es usar la primera columna de y complementarlo con columnas para completar una matriz ortonormal . Entonces escribimos:
(1) ¿Por qué obtenemos el lado derecho? Puedo alcanzarlo por multiplicación y por las propiedades de un complejo conjugado. Al mismo tiempo, ¿no debería simplificarse el lado derecho a una matriz triangular? ¿Qué me estoy perdiendo?
Continuando, el libro hace un argumento por "inducción" (no formal). Asume una factorización de Schur es posible para de tamaño . Entonces se "pone" y en y : y y
(2) ¿De dónde obtenemos esta transformación? En particular, ¿cómo podemos ver dónde encajar en y ?
Una vez que se aclara esto, puedo mostrar que para una matriz simétrica es diagonal y la matriz tiene el número requerido de vectores propios.
Para que quede claro, esta es la primera vez que se presenta la descomposición de Schur en el material, por lo que la respuesta puede ser obvia si domina la descomposición, pero definitivamente no lo es en este punto del libro.
Todo lo que sabemos sobre la matriz es que su primera columna es un vector propio de . Intentamos demostrar la existencia de una matriz. tal que es triangular superior, pero aún no hemos llegado allí.
Ahora, considere el producto
Usando la multiplicación de matriz de bloques, tenga en cuenta que
En una demostración más abstracta, podríamos construir esta matriz de una forma más intuitiva e inmediata. En particular, para construir la transformación lineal , primero considere su restricción a cierto subespacio invariante de .
usuario106860