Del libro Analytical Mechanics de Fowles y Cassiday, estoy estudiando osciladores armónicos acoplados clásicos. Estos son sistemas que se rigen por un sistema de ecuaciones diferenciales lineales de segundo orden de la forma . Aquí quieres resolver como función del tiempo y son matrices cuadradas. intentas enchufar por indeterminado para obtener el sistema de ecuaciones .
Para encontrar soluciones no triviales, desea encontrar las raíces. de como polinomio en y luego calcular para .
Ahora supongamos que los granos abarca todo el espacio lineal, por lo que tiene una base de "vectores propios" (Uso comillas porque estrictamente hablando no son vectores propios). Entonces puedes hacer una matriz de transformación base con los vectores como columnas.
1) El libro luego afirma que las transformaciones de congruencia y son matrices diagonales. ¿Por qué es este el caso?
Editar: se da un contraejemplo tomando tal que es la única raíz de la ecuación determinante y . Entonces las transformaciones de congruencia son solo las matrices en sí: y .
Así que la pregunta de seguimiento es: ¿qué suposiciones sobre y debe agregarse para que se cumpla esta afirmación?
2) ¿Cuál es la intuición detrás de tal transformación de congruencia? Para una transformación de semejanza de una matriz a Puedo interpretar esto intuitivamente como: ir desde la base a la base . ¿Existe también una interpretación similar posible para las transformaciones de congruencia?
No tengo su libro, y sería reacio a aplicar una caja de sombras y leerlo mal mediante una ingeniería inversa virtual... El punto ciertamente confuso en la transformación del eje principal que está considerando se trata meticulosamente y con amabilidad en la Mecánica clásica de Goldstein. libro, cap. 10-2. Básicamente tienes razón en que es arbitrario. y falsificará su declaración. Anticipando lo que sigue a continuación, se trata de una especie de ortogonalidad en un espacio no cartesiano, y la generalización desenfrenada apenas vale la pena.
Mi contraejemplo sería usar matrices de Pauli hermitanas. Entonces, tome a ciegas una matriz "masiva" desagradable,
Sin embargo, hay condiciones en , igual que en . Normalmente es real, simétrico y definido positivo, y conducirá a real . Entonces, primero puede diagonalizarla mediante una transformación ortogonal y luego absorber los valores propios positivos de la matriz diagonal resultante en una redefinición/cambio de escala de las coordenadas por su raíz cuadrada. Como resultado, el nuevo y habitual real, simétrica 's recaen en reales, simétricos.
Pero ahora su ecuación de valores propios se ha convertido en , con valor propio real, cuya ecuación secular se ha convertido en , mientras que su matriz modal es solo una rotación ortogonal, , y se diagonaliza , dejando la matriz de masa de identidad sola.
Ahora, la multitud respetable piensa en como una especie de métrica efectiva del espacio de modos normales, pero, como se indicó, para real simétrico y , el primero con valores propios positivos distintos de cero, los tipos de asiento de los pantalones pueden pensar en la congruencia como una composición de rotaciones y un cambio de escala suave de coordenadas, solo una arruga en un problema de diagonalización monótono.
Luego comience con la deconstrucción que describí. Reescalar con =diag (1/2, 1), de modo que
Los vectores propios para el simétrico son los habituales para ,
Resolviendo el mismo sistema ab initio, pero ahora sin el beneficio de la rotación y el cambio de escala anteriores, se obtienen vectores nulos
Armado con esa intuición, puede proceder a elegir un camino formalmente aceptable para las declaraciones del libro, probablemente a lo largo de las líneas de la nota al pie.
Considerar
por qué y son matrices diagonales.
queremos resolver esta ecuación diferencial vectorial
para resolver la ecuación (2) hacemos este Ansatz:
por lo tanto la ecuación (2)
con obtienes los valores propios y para cada los vectores propios
dónde y
la matriz de transformación se construye con los vectores propios
de este modo:
podemos transformar con la matriz y obten: por lo tanto la ecuación (1)
o:
con:
porque es matriz diagonal por lo tanto y debe ser una matriz diagonal, por lo tanto
y son matrices diagonales. qed
Ejemplo:
por lo que los valores propios son:
debido a que los valores propios son iguales, debe usar el enfoque de Jordan para obtener los vectores propios, por lo tanto, la matriz de transformación
y la solución es la parte real de esta ecuación:
dónde y son constantes complejas.
con
obtienes la solución
tienes cuatro constantes para cuatro condiciones iniciales
Cosmas Zachos
Frobenius