Minimizar la varianza sujeta a restricciones utilizando vectores propios y valores propios

La siguiente es una pregunta de entrevista.

Dadas tres variables aleatorias X , Y , Z y a , b , C , encontrar el valor mínimo de V a r ( a X + b Y + C Z ) sujeto a la restricción a 2 + b 2 + C 2 = 1.

Resolví el problema usando el multiplicador Lagrangiano. Pero el entrevistador dijo que es demasiado tedioso y requiere mucho tiempo, ya que necesitamos resolver muchas ecuaciones. En este caso, hay 4 .

Sugirió lo siguiente:

Observa eso

V a r ( a X + b Y + C Z ) = ( a b C ) ( V a r ( X ) C o v ( X , Y ) C o v ( X , Z ) C o v ( X , Y ) V a r ( Y ) C o v ( Y , Z ) C o v ( X , Z ) C o v ( Y , Z ) V a r ( Z ) ) ( a b C ) .
Como toda matriz simétrica es diagonalizable, entonces
( V a r ( X ) C o v ( X , Y ) C o v ( X , Z ) C o v ( X , Y ) V a r ( Y ) C o v ( Y , Z ) C o v ( X , Z ) C o v ( Y , Z ) V a r ( Z ) ) = ( v 1 v 2 v 3 ) ( λ 1 0 0 0 λ 2 0 0 0 λ 3 ) ( | | | v 1 v 2 v 3 | | | )
dónde λ 1 , λ 2 , λ 3 son valores propios de la matriz de covarianza con vectores propios v 1 , v 2 , v 3 respectivamente.

El entrevistador dijo que desde aquí debería ser fácil ver que el mínimo ocurre en el vector propio correspondiente al valor propio más pequeño.

Pero no veo cómo deducirlo de las ecuaciones anteriores.

Respuestas (1)

Dejar Σ ser el 3 × 3 Matriz de covarianza. Se puede escribir como Σ = V Λ V dónde Λ es diagonal con entradas λ 1 , λ 2 , λ 3 , y donde las columnas de V son vectores propios ortonormales (es decir, V es una matriz ortogonal). (Tenga en cuenta que en su pregunta, usted o su entrevistador confundieron V y V .)

Quieres encontrar el vector tu que minimiza tu Σ tu sujeto a tu 2 = 1 .

Considere el problema similar de minimizar w Λ w sujeto a w 2 = 1 . Desde w Λ w = λ 1 w 1 2 + λ 2 w 2 2 + λ 3 w 3 2 , puedes comprobar que la mejor elección de w es [ 1 0 0 ] si λ 1 es el valor propio más pequeño, [ 0 1 0 ] si λ 2 es el valor propio más pequeño, y así sucesivamente. y el valor minimizado de w Λ w es el valor propio más pequeño.

Volvamos al problema original de minimizar tu Σ tu . Esta función objetivo se puede escribir como tu V Σ V tu . Tenga en cuenta que V tu = tu porque V es una matriz ortogonal. Entonces podemos reducir el problema al segundo tipo (con el "cambio de variables" w = V tu ) y vea que este problema también tiene un valor mínimo igual al valor propio más pequeño.

Según Wikipedia de diagonalización, ¿la matriz cuyas columnas son vectores propios debería ser la última en lugar de la primera?
@Idonknow Creo que lo que he escrito es correcto. Puedes estar confundiendo Σ = V Λ V y V Σ V = Λ .
¿Hay alguna forma matemática de demostrar que la elección del nido de ω ¿Cuál es el vector unitario donde la entrada distinta de cero corresponde al valor propio más pequeño?
Desde w 1 2 + + w 3 2 = 1 , puedes ver eso λ 1 w 1 2 + + λ 3 w 3 2 es un promedio ponderado de λ 1 , λ 2 , λ 3 , y por lo tanto siempre es tan grande como el valor propio mínimo. Dado que puede lograr exactamente el valor propio más pequeño con la elección correcta de w , ese debe ser el mínimo. Sucintamente, λ 1 w 1 2 + + λ 3 w 3 2 λ min ( w 1 2 + + w 3 2 ) = λ min .
En tu última línea, escribiste que V T tu = tu porque V es ortogonal. ¿Significa que todas las matrices ortogonales son isométricas (función de conservación de la distancia)?
@No sé Sí. V tu 2 = tu V V tu = tu tu = tu 2 porque V V = I .