Si una matriz simétrica conmuta con todas las matrices simétricas, ¿es entonces un múltiplo de la identidad?

Sé que, si una matriz conmuta con todas las matrices, entonces es un múltiplo de la identidad; ver aquí _ La misma conclusión es válida si una matriz ortogonal (especial) conmuta con todas las matrices ortogonales (especiales), como se muestra aquí y aquí .

En este contexto, me pregunto si la siguiente afirmación es cierta.

Reclamación : si una matriz simétrica A conmuta con cualquier otra matriz simétrica, ¿se sigue entonces que A = λ I para algunos λ R ?

Bueno, ¿has probado a hacerlo? Me parece trivial ver que debe ser en el peor de los casos diagonal y luego...
Esto es cierto para matrices simétricas sobre cualquier campo. Para el 2 × 2 caso, considere A D = D A y A R = R A dónde D = ( 1 0 0 0 ) y R = ( 0 1 1 0 ) .
@ user1551 Creo que esto es muy superior a la respuesta a continuación, que se ha marcado como aceptada.
@Servaes Creo que eres un poco duro aquí. Su respuesta es al menos correcta.

Respuestas (3)

Dejar mi i j denote la matriz con un 1 en el ( i , j ) -th lugar y 0 Está en todas partes. Entonces mi i i es simétrico, y así de

mi i i A = A mi i i ,
se sigue que el i -ésima fila y columna son todos ceros excepto en el i -th lugar. Esto muestra que A es diagonal.

También mi i j + mi j i es diagonal, y así desde

( mi i j + mi j i ) A = A ( mi i j + mi j i ) ,
se sigue que el i -th y j -ésimas entradas diagonales de A son lo mismo. Esto muestra que A = C I por alguna constante C .

Tenga en cuenta que nada de esto supone que las matrices son reales; esto es válido para matrices sobre cualquier anillo conmutativo.

Dejar V 1 , V 2 ser autovectores de A con valores propios distintos λ 1 , λ 2 . Dejar C ser una matriz simétrica arbitraria. Tenemos:

V 1 | C A | V 2 = λ 2 V 1 | C | V 2 V 1 | C A | V 2 = V 1 | A C | V 2 = λ 1 V 1 | C | V 2
Entonces tenemos λ 2 V 1 | C | V 2 = λ 1 V 1 | C | V 2 para cualquier matriz simétrica C . Configuración C = | V 1 + V 2 V 1 + V 2 | y sabiendo que V 1 | V 2 = 0 (como vectores propios de valores propios distintos para matrices simétricas) obtenemos λ 1 = λ 2 . Esto es una contradicción, así que A no tiene valores propios distintos. Por lo tanto A = λ I .

Editar: podemos hacer que la prueba sea más fuerte eliminando la suposición de simetría para A . Eliminar la suposición de simetría haría que la prueba fuera más difícil con vectores propios de A . si empezamos con V 1 , V 2 como vectores propios de C en lugar de A , y hacemos las mismas manipulaciones algebraicas, obtenemos:

λ 2 V 1 | A | V 2 = λ 1 V 1 | A | V 2
dónde V 1 , V 2 son vectores propios con valores propios distintos de C . Como C es un operador simétrico elegido libremente, V 1 | A | V 2 = 0 para todos V 1 , V 2 con V 1 , V 2 = 0 . Tenemos A V 2 es ortogonal al complemento ortogonal de V 2 , entonces A V 2 es proporcional a V 2 , para todos los vectores V 2 . De este modo A = λ I .

Por favor explique la notación V 1 | A | V 2 y , respectivamente .
Es utilizado por los físicos. V 1 | A | V 2 es V 1 T A V 2 , o el producto escalar de V 1 a A V 2 .
solo hay 3 reglas para esta notación: 1 ) V 1 | medio V 1 T 2) | V 1 medio V 1 3) cuando coloca estos objetos con dimensiones compatibles en sucesión, simplemente denota una cadena de productos de matriz. P.ej: C = | V 1 + V 2 V 1 + V 2 | tenemos | V 1 + V 2 = ( V 1 + V 2 ) T , es un norte × 1 matriz. V 1 + V 2 | es un 1 × norte matriz. C , como el producto matricial de estos dos, es un norte × norte matriz. Es por eso que cuando los escribes al revés obtienes el producto escalar: V 1 + V 2 | V 1 + V 2
De acuerdo. Gracias.

Aquí hay una prueba diferente que tiene más maquinaria pero puede ser interesante en términos de técnica. Una idea repetidamente útil para este tipo de preguntas es hacer uso de los fundamentos de la teoría de la representación de grupos finitos, en particular apoyándose en los grupos de permutación y el Lema de Schur.

Lo que sigue a continuación funciona para R y su extensión C . (En el caso complejo, la prueba es esencialmente la misma si consideramos A ser hermitiano o simétrico.)

prueba radicalmente simplificada
para probar esta afirmación de simetría arbitraria norte × norte matriz A , primero considere la representación matricial estándar de S norte + 1 , y llame a este grupo de matrices METRO ( S norte + 1 ) . Este grupo es una suma directa de la representación trivial y un irreductible norte representación dimensional.

Los generadores de METRO ( S norte + 1 ) son norte + 1 × norte + 1 elemental tipo 2, matrices mi 2 ( k ) , cada uno de los cuales es simétrico. Ahora considere ortogonal tu R norte + 1 × norte + 1 dónde tu 1 1 . Así para PAG METRO ( S norte + 1 ) ,

PAG = k mi 2 ( k ) y PAG = tu T PAG tu = tu T ( k mi 2 ( k ) ) tu = k ( tu T mi 2 ( k ) tu )
cada ( tu T mi 2 ( k ) tu ) es necesariamente simétrico y de la forma
[ 1 0 0 Y norte ]
dónde Y norte es la representación irreducible n-dim antes mencionada y Y norte es pues simétrico.

Por lo tanto, la norte matriz irreducible dimensional rep para S norte + 1 es generado por un producto de matrices simétricas ( Y norte ). Y A conmuta con cada generador n-dimensional, por lo tanto A viaja con el norte representación de matriz irreducible dimensional. trabajando temporalmente C , aplicamos el Lema de Schur A = λ I norte dónde λ R desde A es real.

original, prueba más larga
0.) 2 × 2 Caso
Mediante cálculo directo puede mostrar el resultado (es decir, A conmuta con una matriz diagonal con distintos elementos en diagonal por lo que A debe ser diagonal y luego conmuta con alguna matriz no diagonal que es simétrica entonces A I ).

Un corolario inmediato de la norte × norte caso es
en el caso especial que A = [ 0 0 λ I norte 1 ] y conmuta con todas las matrices simétricas A = λ I norte

1.) norte × norte El caso
A conmuta con todas las matrices simétricas, por lo que conmuta con todas las matrices elementales de tipo 2 mi 2 ( j ) . Estos generan la representación matricial estándar del grupo de permutación. S norte , que es un grupo finito. Llamaré a este grupo matriz METRO ( S norte ) . Desde A viaja con los generadores, A viaja con METRO ( S norte ) .

Cada PAG METRO ( S norte ) es una suma directa de la representación trivial y un irreductible norte 1 representación tenue (esto es, por ejemplo, un ejercicio en el capítulo de teoría de la representación de Álgebra de Artin , cualquiera de las dos ediciones).

Finalmente considere ortogonales reales q dónde q 1 = 1 norte 1 (es decir el vector de unidades) y para arbitraria PAG METRO ( S norte ) definir
PAG := q T PAG q = [ 1 0 0 B norte 1 ]
dónde B norte 1 es el irreductible norte 1 representación dimensional mencionada anteriormente.

Observamos PAG = q T ( j mi 2 ( j ) ) q = j ( q T mi 2 ( j ) q ) cada uno de los cuales es simétrico por lo que A viaja con PAG . Hay varias formas de terminar.

ej., usando el PAG C = q T PAG C q , dónde PAG C es el operador de desplazamiento cíclico (es decir, matriz complementaria para X norte 1 ) tenemos ( PAG C I norte ) A mi 1 = A ( PAG C I norte ) mi 1 = 0 A mi 1 mi 1 porque A mi 1 ker ( PAG C I norte ) = { α mi 1 } . De este modo

A = [ 0 Z norte 1 ] = [ 0 0 Z norte 1 ]
desde A es simétrico

Pero Z norte 1 conmuta con arbitraria B norte 1 que es una representación irreducible (y trabajando temporalmente sobre el campo de extensión C ) por lo que el Lema de Schur nos dice que Z norte 1 = λ I norte 1 y la aplicación del corolario anterior nos dice A = λ I norte