¿Por qué la multiplicación de una matriz de covarianza por la inversa de su suma con la matriz identidad es simétrica?

Tengo un resultado empírico (lo que significa que siempre es cierto mediante una simple simulación, por ejemplo, en R) que no puedo probarme a mí mismo:

Dejar A ser un norte × norte matriz de covarianza (es decir, es PSD simétrica), sea I norte sea ​​la matriz identidad, θ 1 y θ 2 algunos escalares (en mi caso siempre son positivos pero no importa). Dejar:

V = ( θ 1 A + θ 2 I norte ) 1 A

Parece que V siempre es simétrico! ¿Podemos demostrarlo?

Por ejemplo, en R:

A <- cov(rbind(c(1,2.1,3), c(3,4,5.3), c(3,4.2,0)))
isSymmetric(solve(2 * A + 3 * diag(3)) %*% A)
[1] TRUE

Para cualquier persona interesada: es importante para mí principalmente porque esto significa que tengo dos matrices simétricas A , B que se multiplican por una matriz simétrica A B , en cuyo caso sus valores propios son de hecho multiplicaciones de los valores propios de A y B según esto , que también simplifica su trazo.

Tenga en cuenta que A se puede descomponer en PAG Λ PAG 1 . Además, I = PAG I PAG 1 . Entonces, ( θ 1 A + θ 2 I ) 1 A = ( θ 1 PAG Λ PAG 1 + θ 2 PAG I PAG 1 ) 1 PAG Λ PAG 1 = PAG ( θ 1 Λ + θ 2 I ) 1 PAG 1 PAG Λ PAG 1 , lo que significa que la matriz resultante es de la forma PAG Ξ PAG 1 con Ξ siendo diagonal. Por lo tanto, el producto es simétrico (como PAG es ortonormal, es decir PAG = PAG 1 )
@lmaosome por qué es Ξ ¿diagonal?
porque PAG ( θ 1 Λ + θ 2 I ) 1 PAG 1 PAG Λ PAG 1 = PAG ( θ 1 Λ + θ 2 I ) 1 Λ PAG 1 . Ahora pon Ξ = ( θ 1 Λ + θ 2 I ) 1 Λ . Eso es obvio θ 2 I es diagonal, Λ es diagonal por construcción, y el producto de matrices diagonales también es diagonal. Entonces Ξ es diagonal
Correcto, se confundió con A . ¡Esa es realmente una gran prueba!

Respuestas (2)

V = ( θ 1 A + θ 2 I norte ) 1 A ( θ 1 A + θ 2 I norte ) V = A V ( θ 1 A + θ 2 I norte ) = A V ( θ 1 A + θ 2 I norte ) = A V ( θ 1 A + θ 2 I norte ) A 1 = I norte V ( θ 1 I norte + θ 2 A 1 ) = I norte V A 1 ( θ 1 A + θ 2 I norte ) = I norte V A 1 = ( θ 1 A + θ 2 I norte ) 1 V = ( θ 1 A + θ 2 I norte ) 1 A

Aviso: es mucho más corto si sabes que ( ) y ( ) 1 desplazarse


Para enunciar un teorema general, dado pag ( X , y ) , q ( X , y ) dos polinomios (o incluso cualquier función, si sabe cómo aplicarlos a las matrices), entonces pag ( A , A 1 ) y q ( A , A 1 ) conmutar si A es simétrico (hermitiano si es complejo).

Aceptando esta respuesta, pero vea también el comentario de lmaosome sobre por qué esas matrices conmutan.

Si

X Y = Y X
luego multiplicando por izquierda y derecha por X 1 :
Y X 1 = X 1 Y
Así desde [ ( θ 1 I + θ 2 A ) , A ] = 0 también [ ( θ 1 I + θ 2 A ) 1 , A ] = 0 , por lo tanto, el producto es simétrico (todo esto asumiendo que existen todos los inversos, etc.).

Eso es lo que no entiendo, ¿por qué viajan? Gracias.
mi comentario contiene la prueba; Tenga en cuenta que ( θ 1 Λ + θ 2 I ) 1 y Λ desplazarse. Después de intercambiar sus posiciones, vuelva a tener en cuenta PAG y PAG 1
@GioraSimchoni, ¿es mejor esta edición?
@ user619894 Entendí por qué viajan con el comentario de lmaosome. Este [ A , B ] la notación no está clara para mí, pero supongo que yo soy el problema. Gracias.
[ A , B ] = A B B A y se llama el conmutador