¿La forma formal de diagonalizar simultáneamente dos operadores hermitianos que conmutan?

Dados dos operadores hermitianos A y B , tal que [ A , B ] = 0 , si uno [o ambos] de estos operadores son degenerados, ¿cómo se define una forma formal de realizar la diagonalización simultánea de ambos? Preferiblemente, si es posible, con algún ejemplo del método.

Discusiones de chat anteriores:

  1. Hice esta pregunta en la barra h hace un tiempo y, aunque obtuve una buena respuesta, creo que la naturaleza de la brevedad del chat significó que cuando me puse a pensar más en ello, me di cuenta de que todavía no estaba completamente seguro. de todo el asunto, además pensé que sería bueno poner esta pregunta en el sitio ya que personalmente no pude encontrarla cuando la necesitaba.

  2. Discutido en la sala de chat hbar aquí .

  3. Conversación previa en chat sobre el tema .

No entiendo exactamente lo que estás pidiendo. ¿Está buscando una prueba de la afirmación de que dos matrices hermitianas conmutantes se pueden diagonalizar simultáneamente? ¿Para un método para hacerlo a mano con lápiz y papel, dadas dos matrices? ¿Para un método numérico adecuado para una computadora? Las tres preguntas tendrán respuestas muy diferentes.
Parece que OP está preguntando cómo eludir las malas elecciones de base debido a valores propios degenerados, como, por ejemplo, esta publicación de Phys.SE.

Respuestas (4)

Para cada par (espacio propio para A , espacio propio para B ), elija una base para su intersección. (En particular, si una intersección es de dimensión 0, no tendrá ni contribuirá con ningún vector base). Finalmente, concatene todas las bases.

@Qmechanic ¿Dónde entra en escena la conmutatividad? ¿Por qué no usamos el procedimiento para los operadores que no viajan al trabajo?
Sí, no pretendo dar una prueba de la declaración. Leí la pregunta de OP porque no preguntaba sobre la declaración en sí o su prueba, sino que simplemente quería un procedimiento para obtener una base cuando [ A , B ] = 0 .
Sí, tiene usted razón...

El método más simple es primero diagonalizar A . Luego considere a su vez cada valor propio λ y una base del espacio propio asociado mi λ : ( | 1 , | 2 , , | norte ) . Luego construyes la matriz METRO B = ( i | B | j ) 1 i , j norte . Hay una matriz de este tipo para cada valor propio λ , solo para ser muy claro, pero me abstendré de etiquetar un λ a METRO B para mantener la notación legible. Finalmente diagonalizas METRO B . Esto le dará valores propios m 1 , , m norte (no necesariamente distintos) y vectores propios tu i , que son vectores columna,

tu i = ( tu i 1 tu i norte ) ,

tal que METRO B tu i = m i tu i . Entonces construyes | i = j tu i j | j , y ahora ( | 1 , , | norte ) son vectores propios para ambos A , todo para el valor propio λ , y para B , para los valores propios respectivos m 1 , , m norte .

Por supuesto si λ no estaba degenerado en primer lugar, es decir norte = 1 , entonces no hay nada que hacer! Si es degenerado, con mayor frecuencia, norte será pequeño, al menos mucho más pequeño que la dimensión del problema propio para A , por lo que la diagonalización de METRO B será comparativamente fácil. Entonces, de nuevo, no olvides que tienes que hacer esto para cada valor propio λ de A . Por supuesto, podrías empezar por diagonalizar B en su lugar: solo haz lo que parece más simple.

Hay métodos numéricos mucho más eficientes, lo que marcaría una gran diferencia para matrices grandes, pero para su sistema cuántico pan y mantequilla, el método que destaqué debería ser manejable.

lo siento no entiendo que ( tu i j ) 1 <= j <= norte significa, lo que es, por ejemplo, tu i 2 ?
De la conversación anterior en el chat con OP, me gustó en los comentarios de la pregunta, no estoy seguro de que realmente entiendan el significado y la importancia de restringir este método exclusivamente a una base del espacio propio de A . Sin embargo, tal vez haya hecho clic mientras tanto. Dicho esto, (continuación)
Es un poco engañoso decir "construyes la matriz METRO B ", porque implica que hay una sola matriz de este tipo. En cambio, hay una matriz de este tipo por espacio propio de A . Recomiendo encarecidamente un cambio de notación para tener esto en cuenta.
Creo que la declaración "considerar cada uno de los valores propios" es lo suficientemente clara, pero está bien, puedo agregar una advertencia...

Supongo que el espacio de Hilbert H es de dimensión finita y lo indico por H λ el espacio propio de A con valor propio λ y alguna dimensión d λ 1 .

Tú lo sabes

(1) H λ H λ si  λ λ
y
(2) λ H λ = H .

La idea fundamental es que cada H λ es invariable bajo la acción de B , es decir,

B ( H λ ) H λ .
Esto es porque A ( B X ) = B A X = B λ X = λ ( B X ) si X H λ .

Como consecuencia puede

(a) restringir B a H λ y, notando que B | H λ : H λ H λ sigue siendo hermitiano como fácilmente demuestras,

(b) encontrar una base ortonormal de H λ hecho de vectores propios { X norte ( λ ) } norte = 1 , d λ de B con valores propios correspondientes m norte ( λ ) .

Variando ambos

  1. λ en el conjunto de valores propios de A y
  2. norte = 1 , , d λ ,

debido a (1) y (2) el conjunto de todos los vectores unitarios mutuamente ortogonales X norte ( λ ) forman una base ortonormal de todo el H .

Esta base está hecha de vectores propios simultáneos de A y B porque

A X norte ( λ ) = λ X norte ( λ )
y
B X norte ( λ ) = m norte ( λ ) X norte ( λ ) .

Evidentemente puede pasar que m norte ( λ ) = m metro ( λ ) para algunos λ λ .

Lo siento, pero ¿qué hace exactamente? B | H λ / 'restringiendo B a H λ ¿significar?
Significa restringir el dominio de B al subespacio H λ y ver B como un operador definido en un espacio más pequeño, es decir, de H λ a H λ . Esto tiene sentido solo porque B ( H λ ) H λ . B | H λ indica el operador B cuando se considera como un operador en el espacio más pequeño H λ .
Tenga en cuenta que esto es exactamente lo mismo que mi respuesta.
Existe una superposición, pero agregué algunos comentarios que explican por qué funciona el método, y no entré en los detalles del procedimiento de diagonalización como lo hizo usted. Tal vez la pregunta original se refería solo al procedimiento práctico , por lo que en realidad respondí otra pregunta...
¡Sí, claro, el comentario era para el OP!

El siguiente método más simple (particularmente útil si solo necesita un resultado numérico) es considerar el operador

O = α A + β B
con α y β elegido para que O no tiene valores propios repetidos. Entonces los vectores propios de O son vectores propios simultáneos de A y B .

Si uno o ambos A y B se les permite ser degenerados (según OP), ¿no es el caso que O tendrá necesariamente valores propios repetidos?
@LLlAMnYP Tomar
A = ( 2 0 0 0 2 0 0 0 1 ) , B = ( 1 0 0 0 3 0 0 0 3 ) ,
Entonces A + 2 B no tiene valores propios repetidos.
Ok, mi uso de "necesariamente" es una palabra demasiado fuerte, pero sigo viendo casos en los que es inevitable (por ejemplo, en su ejemplo tiene B tienen tres valores propios idénticos mientras que A permanece como se sugiere).
@LLlAMnYP, en cuyo caso no hay nada que hacer, ya que cualquier combinación de estados propios en el subespacio degenerado común será un estado propio, es decir, los estados propios degenerados de α A + β B no se definen de forma única ya que cualquier combinación lineal de esto también es un estado propio. El mismo problema ocurre con cualquier método. Necesitaría un tercer operador para levantar la degeneración.
IOW, se necesitan más números cuánticos para definir un estado de manera única. Pero eso no debería impedirnos diagonalizarlos a ambos de todos modos, ¿verdad? En los ejemplos tuyo y mío, ambos ya están en diagonal.
@LLlAMnYP tienes razón. Si tiene subespacios comunes en A y B que son degenerados, está atascado: aún puede tomar combos y aún son vectores propios. Esto es independiente de cualquier método que utilice, ya que matemáticamente cualquier combinación de vectores propios es equivalente a cualquier otra combinación. Para tu información, el truco que menciono funcionará excepto en las circunstancias que mencionas. La dificultad podría ser encontrar los factores α y β . A menudo, los valores propios de A y B son racionales, por lo que elegir factores irracionales para α y β Hace el truco.
Bueno, en cualquier caso es un método elegante, por lo que las matrices +1 y degeneradas pueden ser diagonalizables de todos modos.
Bueno, eso pasa si insistes en O sin valores propios repetidos. En la práctica, creo que para casi todas las opciones de α y β , una matriz que diagonaliza O = α A + β B diagonaliza también A y B (sin importar cuántos valores propios repetidos tengan).