¿Es la hermiticidad un concepto dependiente de la base?

He buscado en wikipedia: matriz hermitiana y operador autoadjunto , pero todavía estoy confundido acerca de esto.

es la ecuacion:

A y | X = y | A X  para todos  X dominio de  A .

independiente de la base?

No hay absolutamente ninguna referencia a una base en esa ecuación, así que sí, es independiente de la base.
Creo que la sutileza aquí es que en el primer paso por estas cosas, la definición del producto interno se da en términos de una base estándar. Esa no es realmente la definición de un producto interno. La historia real es que, dada una base, hay un producto interno único para el cual esos vectores base forman un conjunto ortornormal. Por otro lado, un producto interior en un espacio vectorial se puede definir sin base, y para un espacio vectorial dado con producto interior hay muchas formas de elegir una base ortonormal "estándar".
@TobiasHagge: cierto, lo había olvidado; aún así, uno esperaría que en el curso normal de los acontecimientos, si uno se introduce en el formalismo indicado anteriormente, entonces uno se habría introducido en la definición sin base de un producto interno.
Depende del producto interno (pero no de la base).

Respuestas (4)

La relación

(1) A y | X = y | A X  para todos  X dominio de  A
no hace referencia a ninguna base en absoluto, por lo que es independiente de la base.


De hecho, esta definición, que parece bastante extraña cuando la conoces por primera vez, surge precisamente del deseo de hacer que las cosas sean independientes de la base. La observación particular que provoca la definición es esta:

Dejar V ser un espacio vectorial complejo con producto interno · , · , y deja β = { v 1 , , v norte } Sea una base ortonormal para V y A : V V un operador lineal con representación matricial A i j sobre β . Entonces, si esta representación matricial es hermítica, es decir, si

(2) A j i = A i j
cuando A se representa sobre cualquier base ortonormal única, entonces ( 2 ) se cumple para todas las bases ortonormales.

(Del mismo modo, para un espacio vectorial real, simplemente elimine el conjugado complejo).

Ahora bien, esta es una propiedad extraña: hace una mención explícita de una base y, sin embargo, es independiente de la base. Seguramente debe haber alguna forma invariable de definir esta propiedad sin ninguna referencia a una base. Bueno, sí: es la declaración original en ( 1 ) .


Para ver cómo construimos la declaración invariante a partir de la propiedad basada en la matriz, es importante tener en cuenta cuáles son los elementos de la matriz: son los coeficientes sobre β de la acción de A sobre esa base, es decir, nos dejaron escribir

A v j = i A i j v i .
Además, en un espacio de producto interno, los coeficientes de un vector en cualquier base ortonormal se encuentran fácilmente como los productos internos del vector con la base: si v = j C j v j , luego tomando el producto interno de v con v i te dio
v i , v = j C j v i , v j = j C j d i j = C i ,
lo que significa que siempre puedes escribir
v = i v i , v v i .
(Tenga en cuenta que si V es un espacio de producto interno complejo que estoy tomando · , · ser lineal en el segundo componente y conjugado-lineal en el primero.)

Si luego aplicamos esto a la acción de A sobre la base, llegamos a

A v j = j A i j v i = i v i , A v j v i , es decir A i j = v i , A v j ,
ya que los coeficientes de la matriz son únicos. Tenemos, entonces, una relación directa entre el elemento de la matriz y los productos internos, y esto parece particularmente sorprendente cuando usamos este lenguaje para reformular nuestra propiedad ( 2 ) arriba: la matriz para A sobre β es hermitiano si y solo si
A j i = v j , A v i = v i , A v j = A i j ,
y si usamos la simetría conjugada tu , v = v , tu del producto interior, esto se reduce a
(3) A v i , v j = v i , A v j .
Ahora, aquí es donde sucede la magia: esta expresión es exactamente igual a la propiedad invariante ( 1 ) que queríamos , solo está especializado para X , y fijado a los miembros de la base dada. Esto significa, por un lado, que ( 1 ) implica ( 2 ) , por lo que es la mitad de la equivalencia hecha.

Además de esto, hay un segundo poco de magia que debemos usar: la ecuación en ( 3 ) es completamente (bi)lineal en ambos vectores base involucrados, y esto significa inmediatamente que se extiende a cualquiera de los dos vectores en el espacio. Esta es una declaración un poco heurística, pero es fácil de implementar: si X = j X j v j y y = i y i v i , entonces tenemos

A y , X = A i y i v i , j X j v j = i j y i X j A v i , v j por linealidad = i j y i X j v i , A v j por  ( 3 ) = i y i v i , A j X j v j por linealidad = y , A X ,
y esto muestra que puede construir directamente la declaración invariable ( 1 ) fuera de su versión restringida a una base, ( 3 ) , que en sí mismo es una reformulación directa de la condición de hermiticidad de la matriz ( 2 ) .

Bastante genial, ¿verdad?

La definición que ha citado es, de hecho, independiente de la base, ya que solo hace referencia al producto interno , y el dominio de A , ninguno de los cuales depende de la base.

Tenga en cuenta que "simétrico" en el sentido anterior y "auto-adjunto" en el sentido más amplio están conectados por el teorema de Hellinger-Toeplitz que dice que si el dominio es el espacio completo de Hilbert, entonces el operador es auto-adjunto: y esto en turn significa que lo que los físicos entienden por "auto-adjunto" o "hermitiano" es de hecho su noción de "simétrico"; los operadores como el hamiltoniano generalmente no están definidos en todo el espacio de Hilbert, ya que son simétricos pero no están acotados.

Se ha argumentado que esto conduce a una especie de incompletitud matemática de la mecánica cuántica (Advertencia: PDF, advertencia: filosofía), sin embargo, no afecta la mayoría de las aplicaciones cotidianas en física y ni siquiera está presente en la mayoría de las referencias sobre eso. Aquí hay un conjunto de notas de conferencias que lo mencionan .

Los operadores simétricos suelen emplearse cuando se trabaja en un espacio vectorial real, mientras que los operadores hermitianos suelen emplearse cuando se trabaja en espacios vectoriales complejos.

En dimensión finita, la matriz asociada es simétrica en el primer caso ( a i j = a j i para todos i , j ), mientras que es igual a su matriz transpuesta conjugada compleja en el segundo caso ( a i j = a j i ¯ para todos i , j ).

En ambos casos, la propiedad (de ser simétrico/hermitiano) es independiente de la elección de la base pero depende de la elección del producto escalar para el primer caso, producto hermitiano para el segundo caso.

Hay un sentido definido en el que la autoadjunción es de hecho un concepto dependiente de la base. Realmente depende de con qué empieces. Si tiene en mente un producto interno en particular, entonces la verdad de su ecuación es completamente independiente de la base que elija para representar X , y , y A con respecto a. Sin embargo, si no tiene en mente un producto interno en particular, entonces la elección del producto interno en sí juega un papel.

La idea es que la elección de un producto interior haga especiales algunas bases, es decir, aquellas que son ortonormales con respecto a él. No es tan restrictivo como elegir una sola base, pero todavía significa que podemos hacer una elección que determina si la matriz (o más bien la transformación lineal) es autoadjunta o no.

Más precisamente, podemos encontrar una matriz A y dos productos internos , 1 y , 2 tal que A es autoadjunto con respecto al primero pero no al segundo. Por ejemplo, toma

A = ( 1 1 1 1 )

y considere el producto interno , 1 tal que

β 1 = { ( 1 0 ) , ( 0 1 ) }

es ortonormal (es decir, el producto escalar estándar), y el producto interno , 2 tal que

β 2 = { ( 1 2 ) , ( 0 1 ) }

es ortonormal. Después A es autoadjunto con respecto al primero (puesto que es hermitiano en esa base) pero no con respecto al segundo. Para ver esto, observe que con respecto a la segunda base, A toma la siguiente forma.

[ A ] β 2 = ( 1 0 2 1 ) 1 ( 1 1 1 1 ) ( 1 0 2 1 ) = ( 3 1 3 1 )

El punto principal es que la noción de ser independiente de la base es un concepto vago. Cuando solo hablamos de espacios vectoriales (es decir, sin productos internos), podemos hablar precisamente de lo que significa ser independiente de la base, ya que podemos distinguir entre las cosas que requieren que elijamos una base específica y las que no. Sin embargo, cuando agregamos la estructura de un producto interno, no podemos realmente hablar de que algo sea independiente de la base en los mismos términos absolutos, ya que la elección del producto interno depende de la base. Sin embargo, podemos hablar en un sentido más débil de que algo es independiente de la base, suponiendo que ya tenemos un producto interno. De esta manera, la autoadjunción es independiente de la base.