Prueba de esta identidad de álgebra lineal

Dejar X , w R norte
Cómo demostrar que: ( w t X ) X = ( X X t ) w ( t denota transposición)

Intento de prueba:

α = ( w t X ) X α t = X t ( w t X ) t = X t ( X t w ) ( α t ) t = ( X t ) t ( X t w ) ( tratando  X t w  como un escalar aquí ) α = X ( X t w ) = ( X X t ) w ( asociatividad )

La prueba anterior me parece correcta, pero todavía no estoy seguro ya que los dos últimos pasos se sienten como un "truco".

también puede argumentar que son todos β X dónde β := w T X , es decir, esta es una clase de equivalencia. La misma idea pero menos sensación de 'hackeo'.

Respuestas (3)

Tu prueba me parece correcta, la estás usando X T w es un escalar, y también que la multiplicación de matrices es asociativa.

Más directamente se puede argumentar que

( w T X ) X = X ( w T X ) = X ( X T w ) = ( X X T ) w ,
donde los primeros dos pasos usan eso w T X es un escalar, y el último paso utiliza que la multiplicación de matrices es asociativa.

Supongo v denota la transposición.

Esto usa un truco, además de la transposición: w X es un escalar que se multiplica por un norte × 1 matriz. Obtienes el mismo resultado si, en cambio, consideras el producto X ( w X ) donde ahora w X es considerado como un 1 × 1 matriz. Pero w X = X w , para que puedas escribir

( w X ) X = ( X w ) X = X norte × 1 ( X w ) 1 × 1 = ( X X ) norte × norte w norte × 1

Este tipo de hecho se entiende fácilmente usando álgebra lineal abstracta, a diferencia del álgebra matricial.

Dejar X , w V , dónde V es un espacio vectorial de dimensión finita con un producto interno definido positivo , .

Ambas expresiones, ( w t X ) X y ( X X t ) w , puede considerarse como una expresión matricial de la contracción de

X X w V V V ,

la contracción está en los últimos 2 factores tensoriales, donde X = X , V .

Para que sea más evidente que la identidad es esencialmente asociatividad desde este punto de vista, recomendaría escribirla en la forma:

( X X t ) w = X ( X t w )