Estructura fina independiente del espín del protón "Hamiltoniana" WfWfW_f

Para encontrar la corrección de la perturbación (estructura fina) en el caso de una energía degenerada mi norte 0 , podemos diagonalizar el operador W F norte , la restricción de W F al espacio propio asociado a mi norte 0 .

Según CC Tanoudji, desde W F no depende del espín del protón, es posible dividir por 2 la dimensión del problema ( gramo norte 2 X gramo norte 2 matriz en lugar de gramo norte X gramo norte matriz) y diagonalizar una submatriz. ¿Por qué?

Me gustaría tener una prueba matemática por favor.

¿Es la perturbación W F hermitiano?

Respuestas como "las matemáticas son solo una herramienta, no es la naturaleza, etc." no son útiles. Las personas que no pueden ayudar, por favor no molesten.

Respuestas (1)

Entonces, quieres diagonalizar un operador en un subespacio.

Específicamente quieres diagonalizar W F norte , la restricción de W F al espacio propio asociado a mi norte 0 .

[Desde] W F no depende del espín del protón, es posible dividir por 2 la dimensión del problema ( gramo norte 2 X gramo norte 2 matriz en lugar de gramo norte X gramo norte matriz).

Si un vector propio en mi norte 0 parece una combinación lineal de { Ψ norte | + , Ψ norte | } donde el | ± es el espín del protón, entonces nos importa cómo W F actúa sobre un vector arbitrario en el lapso de { Ψ norte | + , Ψ norte | } .

Ahora supongamos que encontramos algunas funciones específicas ( Φ 1 , Φ 2 , , Φ k ) que son ortogonales y tales que W F Φ i | + = α i Φ i | + entonces el operador es diagonal (esta es la versión de la mitad de la dimensión del problema). Si podemos resolverlo (es decir, encontrar el ( Φ 1 , Φ 2 , , Φ k ) que satisfacen W F Φ i | + = α i Φ i | + ) entonces, dado que la perturbación no dependía del espín del protón, también obtenemos W F Φ i | = α i Φ i | esto significa que { Φ k | + , Φ k | } es un conjunto de autovectores ortogonales (la ortogonalidad sigue ya que ( Φ 1 , Φ 2 , , Φ k ) son ortogonales).

Así que tenemos un montón de vectores propios ortogonales, si hay suficientes, hemos terminado, hemos diagonalizado la matriz. Entonces el lapso de { Ψ norte | + , Ψ norte | } era de dimensión gramo norte entonces { Ψ norte | + } es gramo norte / 2 dimensional. Entonces, si este problema más pequeño se puede diagonalizar, entonces estamos bien.

¿Es obvio que es diagonalizable? Ni siquiera es obvio que es un operador, puede restringir su dominio, pero para ser un operador, el rango debe estar en el dominio (o tal vez el cierre del dominio si le gustan los operadores ilimitados). Puede proyectar en el dominio forzarlo o ser un operador. (Para que la proyección compuesta con la función sea un operador). Entonces aún debe preguntarse si es diagonalizable. Entonces necesitamos saber si hay suficientes vectores propios en el espacio reducido.

¿Es la perturbación W F hermitiano?

Si es así, eso resuelve el problema anterior. Si el objetivo es aproximarse a un operador hermitiano, entonces tener perturbaciones hermitianas es razonable, pero no es obvio que tenga que ser hermitiano. Sin embargo, podemos argumentar que si el operador de perturbación es hermitiano en el espacio más grande, entonces podemos hacer que la restricción al problema más pequeño sea diagonalizable.

Para eso, queremos mostrar que la diagonalización puede ocurrir y tiene valores propios reales. Si sabemos que la diagonalización ocurre (con valores propios reales) en el espacio más grande, entonces cualquier vector propio A ( α + | + α | ) con valor propio a R implica el estado A ( α + | + α | ) es también un vector propio con el mismo valor propio y, por lo tanto, se abarca todo el espacio, ya que solo difiere en el espín del protón. Y por lo tanto también lo es A | + y A | . Entonces también podríamos reemplazar todos los demás vectores propios con el mismo valor propio (si lo hay) con uno ortogonal a ambos (restringido al subconjunto del espacio propio que es ortogonal a esos dos y diagonalizado, es diagonalizable en todo el espacio propio es un múltiplo de la identidad en ese espacio propio). Así que seguimos haciendo eso (usando el lema de Zorn si es necesario) hasta que tengamos vectores propios que estén todos en el espacio generado por { Ψ norte | + } o en el espacio ocupado por { Ψ norte | } . Había gramo norte vectores propios en un espacio más grande, cada uno fue reemplazado con un vector en el lapso de { Ψ norte | + } o en el lapso de { Ψ norte | } . (Ya sea directamente o cuando uno de los otros estaba colocado en uno pero el punto es que teníamos una diagonal donde todos los gramo norte Los autovectores están en un lapso de { Ψ norte | + } o en el lapso de { Ψ norte | } . )

Dado que los vectores propios en el espacio más grande eran ortogonales y distintos de cero, eran linealmente independientes. Así que los que están en el lapso de { Ψ norte | + } son linealmente independientes y las que están en el lapso de { Ψ norte | } Ade linealmente independiente. Como esos espacios son de dimensión gramo norte / 2 (asumiendo gramo norte es finito por lo que la división tiene sentido) entonces hay como máximo gramo norte / 2 vectores en cada uno. Si intentaste poner metro menos en una que las otras necesidades tienen gramo norte / 2 + METRO para que sumen gramo norte vectores pero eso excedería gramo norte / 2 para el otro entonces debe haber gramo norte exactamente en cada uno. Eso es exactamente suficiente para que el restringido sea diagonalizable. Pero todos estos tienen valores propios reales, por lo que son hermíticos.

Eso significa que cuando buscamos vectores propios del problema más pequeño, pudimos encontrar gramo norte / 2 vectores propios ortogonales con valores propios reales, es hermitiano, por lo que podría hacerse.

¿Por qué podríamos subdividir la matriz cuando aún no está diagonalizada?

Estoy diciendo que si diagonalizaste el gramo norte X gramo norte matriz, entonces puede bloquear la diagonalización de acuerdo con los espacios propios, luego, para cada espacio propio, encuentre un vector V y luego sus proyecciones en los dos gramo norte / 2 los espacios dimensionales estarán en el mismo espacio propio y dos vectores ortogonales cualesquiera en ese espacio propio son vectores propios. Así que podemos elegir uno, proyectarlo tanto en el gramo norte / 2 espacios dimensionales y si uno de ellos da cero tomar el otro y reemplazar el | ± con | así que terminamos con dos vectores hacia abajo, luego elegimos un vector aleatorio en el espacio propio que sea ortogonal a todos los que tenemos hasta ahora y repetimos. Entonces obtienes tus vectores propios para la matriz grande para que sean todos los vectores en los dos gramo norte espacios dimensionales. Así, la restricción al espacio más pequeño es un operador y es diagonalizable.

No entendí la parte 2d. De todos modos, ¿por qué podríamos subdividir la matriz cuando aún no está diagonalizada? Gracias.
Si expande la matriz en la base proporcionada por Timaeus, verá que es una diagonal de bloque, por ejemplo, parece
( A 0 0 A )
Es decir, es diagonal de bloque. Cuando subdividimos, simplemente tiramos la copia extra de A .