Estoy interesado en la transformación de similitud ortogonal de matrices diagonales, vea también mis preguntas anteriores propiedades de la transformación de similitud ortogonal y la transformación de similitud ortogonal de una matriz diagonal por una matriz de permutación: dirección inversa . Asumir que es una matriz diagonal con elementos positivos y diferentes por pares y una matriz ortogonal. Si la transformación de semejanza ortogonal es una matriz diagonal, tenemos expresiones
Supongo que los vectores unitarios y solo puede ser ortogonal en ambas formas bilineales (es decir, ambas expresiones anteriores son cero) si tienen un elemento .
¿Alguien tiene un contraejemplo o una idea para una prueba? ¿Puede la prueba abordar elementos individuales? o tendríamos que considerar todos ? ¿Se perdería la propiedad conjeturada con diferentes suposiciones sobre , es decir, si algunos elementos de son idénticos o si algunos son negativos?
Estoy agradecido por cualquier idea.
Hice un poco de progreso, pero me quedé atascado en un punto posterior.
A continuación abandono la suposición de clasificación de los elementos diagonales.
Primero miramos el sistema de ecuaciones para dos columnas y de :
Podemos transformar este sistema en un sistema lineal homogéneo
dónde . Transformamos la matriz de coeficientes
en forma escalonada de fila reducida: Normalizamos ,
restar la primera fila de la segunda,
normalizar la segunda fila,
y reste una versión escalada de la segunda fila de la primera
Introducimos para
y obtener la forma escalonada por filas reducida
Para vemos eso , por lo que los denominadores están definidos y y .
(Este párrafo considera violaciones de la suposición de elementos diferentes por pares en . Puede ser útil más adelante. Si , tenemos que distinguir dos casos. Me caigo son iguales, entonces el puede elegirse arbitrariamente bajo la restricción . Si hay al menos un par de elementos diagonales que difieren entre sí, podemos seleccionarlos wlog para que sean y , de este modo y . Además, seleccionamos los elementos diagonales de tal manera que . En este caso tenemos . si tambien , también tenemos . El caso no es posible.)
Ahora determinamos el espacio nulo de . De obtenemos
dónde son parámetros libres. Esto lleva a
(Tenga en cuenta que esto no es una matriz, sino un vector escrito de tal manera que cada aparece en una columna separada), por lo que el espacio nulo está ocupado por las columnas del matriz
Claramente, podemos encontrar un tal que ambas formas bilineales se vuelven cero. Por lo tanto, los vectores individuales que cumplen ambas ecuaciones no son necesariamente vectores con un solo elemento distinto de cero en diferentes posiciones: supongamos que , entonces y .
Por lo tanto, obviamente tenemos que considerar toda la matriz :
Si pudiéramos demostrar que sólo permite cumplir todas estas ecuaciones, podríamos demostrar que todos los vectores solo puede tener exactamente un elemento distinto de cero (que tiene que ser ya que los vectores son vectores unitarios) que aparece en diferentes posiciones. El argumento procede de la siguiente manera: Si para todos , entonces tiene cero elementos donde tiene elementos distintos de cero y viceversa. Suponga que un vector tiene más de un elemento distinto de cero. Dado que el resto vectores ( ) tienen al menos un elemento distinto de cero (ya que son vectores unitarios), no sería posible encontrar otros vectores que tienen su elemento distinto de cero en el posiciones cero restantes de .
¿Alguna idea de cómo mostrar esto? ¡Gracias!
Dejar frijol matriz. Entonces es diagonal si y solo si cada uno de los vectores base estándar es un vector propio de . Si es una matriz invertible entonces es diagonal si y solo si las columnas de son vectores propios de .
En tu caso, tienes una matriz diagonal. con entradas distintas, lo que significa que cada vector de base estándar es un vector propio. Debido a que los valores propios son distintos, cada vector propio es un múltiplo de algunos . Esto significa que cuando supones que es diagonal para alguna matriz invertible , ya sabes que las columnas de debe contener múltiplos de los vectores propios . Por ejemplo, un potencial podría parecerse
Ahora aplique el hecho de que su es ortogonal, por lo que cada entrada debe ser .
Muchas gracias a Joppy por la prueba. Reescribí la prueba en mi notación, espero haber acertado todos los pasos:
Lo que finalmente probamos es el siguiente Lema:
Dejar sea una matriz diagonal con entradas distintas de cero y diferentes por pares. Dejar Sea una matriz ortogonal. Si entonces es diagonal dónde es una matriz de permutación con signo ( es una matriz de signos diagonales con entradas , es una matriz de permutación).
(No estoy seguro de si el requisito "distinto de cero" es necesario).
Prueba:
Declaración 1: Los vectores propios de la matriz diagonal con dos entradas distintas de cero son los vectores base , . Prueba: La ecuación característica lleva a . La ecuación del vector propio se convierte que conduce a la solución y , , y por lo tanto que concluye la prueba del enunciado 1.
Declaración 2: Suponga que es una matriz invertible ( es un caso especial). Si es diagonal, entonces las columnas de son los vectores propios de . Prueba: Expresamos por sus columnas . Desde es invertible, las columnas de abarcar todo (desde el las columnas deben ser linealmente independientes). Así cualquier vector puede expresarse como una superposición de los vectores columna, también el vector :
Miramos la columna de :
Ya que suponemos que es diagonal (es decir, es igual a una matriz diagonal con elementos ), lo sabemos
de este modo y , . Por lo tanto, la ecuación de superposición anterior se convierte en
Vemos que los vectores , , son los vectores propios de , que concluye la prueba del enunciado 2.
De acuerdo con el enunciado 1, los vectores propios de son los vectores base , y de acuerdo con el enunciado 2, los vectores propios de son las columnas . la asignación de a puede ser cualquier permutacion :
lo que concluye la prueba del Lema.
Ralf
alegre
alegre