Representaciones de grupos como vectores e isomorfismo entre pesos y generadores de matrices

Esto podría ser algo básico, pero no está claro para mí. Así que estoy acostumbrado a trabajar con representaciones de grupos como matrices. Estas matrices representan la estructura del álgebra de Lie al satisfacer las relaciones de conmutación:

[ T i , T j ] = F i j k T k

pero leí textos de física de partículas donde los vectores sobre los que actúan las matrices, y no las matrices en sí, se denominaban representaciones. Por ejemplo, en el grupo SU(3), después de encontrar todos los pesos de una representación decimos que "encontramos la representación", aunque no hayamos encontrado las matrices generadoras. Mi pregunta es, en que sentido los vectores representan al grupo, los vectores parecen elementos pasivos sobre los cuales actúan las matrices del grupo, y no contienen la estructura del grupo. Espero que mi pregunta sea clara.

EDITAR: Como dice el título, ¿son estas representaciones vectoriales, junto con los pesos, isomorfas a los generadores de grupos?

Personalmente, sostengo que este uso de "representación" para referirse a los vectores en sí no tiene sentido y trato de no usarlo.
Comentario sobre la pregunta (v3): un grupo que uno considera en física puede no ser un grupo de Lie, e incluso cuando lo es, las matrices que representan los elementos del grupo no suelen satisfacer las relaciones estructurales del álgebra de Lie, pero las representaciones del álgebra de Lie los elementos lo hacen. Una motivación para identificar el espacio vectorial con la representación es que si, por ejemplo, una representación se descompone como una suma directa si es irrepetible, entonces se puede pensar que el espacio vectorial se descompone de manera correspondiente en una suma directa de subespacios. En este sentido, el espacio vectorial no es del todo "pasivo".
Además, no son solo los físicos los que usan esta terminología, los matemáticos también abusan de la terminología a menudo. De hecho, si miras en la primera página del libro de Fulton y Harris sobre la teoría de la representación (un libro de matemáticas duro, sin duda) encontrarás la oración "Cuando hay poca ambigüedad sobre el mapa ρ (y, tenemos miedo, incluso a veces cuando lo hay) a veces llamamos V en sí mismo una representación de GRAMO ..."
@joshphysics gracias, estaba hablando de conmutadores de representaciones de álgebra de mentira. Además de la descomposición de vectores, ¿revelan algo de la estructura de "multiplicación" del álgebra de Lie manifestada en los conmutadores?
@Lonkar No que yo sepa. Dado que para un espacio vectorial dado, en general, hay muchas representaciones de muchos grupos o álgebras que actúan sobre ese espacio, no es posible reconstruir la estructura del grupo directamente a partir del espacio vectorial. Por esta razón, como señalan Fulton y Harris, en última instancia es un abuso de terminología que requiere contexto para aliviar.
Las representaciones no pueden, en general, codificar toda la estructura de un grupo porque las representaciones no son, en general, fieles. Sin embargo, es justo decir que encontrar los pesos de una repetición SU(3). are es lo mismo que "encontrar la representación" porque la estructura de SU(3) permite deducir todas las matrices solo a partir de los pesos. Pero está utilizando la estructura de grupo para aprender sobre el representante, no al revés.

Respuestas (3)

Creo que su confusión (como la mía) es simplemente sobre el uso técnico del inglés. Como dices con razón, "los vectores parecen elementos pasivos sobre los que actúan las matrices del grupo y no contienen la estructura del grupo" .

En mi opinión, una representación de un grupo es un triple ( GRAMO , V , ρ : GRAMO GRAMO L ( V ) ) : el grupo GRAMO representado, el espacio vectorial de destino V siendo actuado en una acción grupal del grupo matriz de endomorfismos GRAMO L ( V ) , y el homomorfismo ρ : GRAMO GRAMO L ( V ) entre ellos.

Mientras quede claro por el contexto , está bien pensar en el espacio vectorial como la representación, y este parece ser el uso estándar de la palabra por parte de los físicos. De hecho, es un punto de vista particularmente físico: en el punto de vista que cité primero, estás observando el "sistema" desde lejos; desde el punto de vista del físico, usted, como cualquier buen experimentador u observador cuidadoso, se está acercando lo más posible a la acción ( es decir , sentado en el extremo comercial de la flecha ). ρ ) y viendo cuáles son los actores que salen de ella (las matrices en GRAMO L ( V ) ) hacen a través de sus acciones en sus juguetes (los vectores en V ). Mi imagen mental, en este contexto, es literalmente la de alguien con una bata blanca, sentado justo al final de la tubería. ρ (que para mí de alguna manera es siempre un color bronce) y escribiendo cuidadosamente sus observaciones sobre lo que sucede al final de la tubería. ρ cuando salen las criaturas estudiadas!

En física, los vectores en V son a menudo estados cuánticos en un espacio de estado cuántico V (estos son los más habituales para mí), y a veces buscamos transformaciones unitarias lineales en ellos que sean "compatibles con" ( es decir , imágenes homomórficas de) el grupo GRAMO de "acontecimientos físicos" (estoy pensando en GRAMO como el grupo de Poincaré, o S O ( 1 , 3 ) o la doble cubierta de este último S L ( 2 , C ) ). El espacio vectorial contiene las cosas físicas (los estados cuánticos), por lo que es natural pensar en ellas como la "representación".

"...los vectores en V son casi siempre estados cuánticos..." Si por "casi siempre" quiere decir algo así como "casi en todas partes" en matemáticas, entonces creo que esta hipérbole bastante severa. ¿Qué pasa con las representaciones de grupo en la mecánica clásica, GR, cualquier teoría de campo clásica para eso? la materia, e incluso la teoría cuántica de campos donde los vectores son elementos de los espacios objetivo de los campos?
@WetSavannaAnimal gracias. Entiendo que los vectores son importantes en su significado como estados cuánticos, pero no entiendo cómo revelan, por sí mismos, la estructura del grupo. (por ejemplo, las matrices generadoras pueden describirse por sus "tablas de multiplicar", que son los conmutadores, de esta manera revelan la estructura del grupo). Además, una vez que conocemos los pesos, ¿hay un isomorfismo entre los vectores de peso y los generadores?
@Lonkar Lo tengo ahora: no lo hice antes (como probablemente se desprende de mi respuesta). Estoy pensando un poco más, pero mi intuición es que no, en general no tienes una definición única del grupo a partir de sus espacios de peso. Su pregunta es más profunda que la terminología (y muy buena), y debe quitar la etiqueta de "terminología" y hacer "una vez que sabemos los pesos, ¿hay un isomorfismo entre los vectores de peso y los generadores?" tu pregunta clave. Esta puede ser una mejor pregunta para Maths SE
@Lonkar Casi editaría su pregunta porque me gustaría ver una buena respuesta, pero (1) esto sería presuntuoso y (2) usted es claramente más agudo que yo sobre esto y probablemente también sobre otros asuntos.
@WetSavannaAnimal gracias por la amable respuesta. No soy un experto, pero estoy tratando de aprender. Cambié el título y puse un Editar en la pregunta, gracias por las sugerencias. esperare a ver mas respuestas

Los vectores (kets) sobre los que actúan las matrices deben denominarse espacio portador de la representación . Como dijiste, las matrices son la representación de los generadores abstractos. Es una flojera referirse al espacio vectorial como la representación. Un vector de peso máximo etiqueta la representación irreducible y le indica la dimensión del espacio portador.

Es fácil etiquetar un conjunto ortogonal de vectores base para el espacio portador utilizando el patrón de Gelfand. Este es un triángulo invertido de números con los números del vector de peso a lo largo de la base superior y usando la regla de intermediación para completar el resto de los enteros del triángulo. Las matrices de la representación también se pueden calcular a partir del vector de peso máximo, aunque es más difícil.

Excepto, al menos para GL(N), los propios generadores abstractos pueden servir como vectores espaciales portadores para uno de los irreps. Es entonces cuando el grupo actúa sobre los generadores por conjugación. Ejemplos son, los generadores O(3) j transformando como un vector 3 por matrices de 3x3, o los generadores SU(3) transformando como un octeto por matrices de 8x8.

No, este no es un problema de terminología ambigua. Sospecho que buscar un "isomorfismo" podría ser demasiado estricto ... ¡también podría buscar un "funtor"! La respuesta básica es que sí, la posesión de las matrices generadoras T de dimensión dxd es básicamente equivalente a la caracterización de los pesos de los estados v en el espacio vectorial d -dimensional en el que actúan tales matrices, excepto que la última normalmente lo lleva más directamente a lo que quiere saber en QM en el último caso, a fuerza de las etiquetas/ raíces / pesos relevantes .

Piense en SU(2) por simplicidad, pero puede optar por generalizar a SU(3) , una vez que el juego sea evidente. Para rotar un d -dim v arbitrario en un ángulo θ , se opera sobre él mediante v →exp( iθJ ) v en la física clásica. Por cambio de base de los 3 generadores J a sus versiones de escalera de subida y bajada j + , j y j 0 y las maravillosas ecuaciones de valores propios que satisfacen sus conmutadores de álgebra de Lie, puede organizar estas rotaciones de manera mucho más útil en QM, y también computacionalmente; por supuesto, así es como se encontraron estas matrices de mayor atenuación en el artículo SU(2) WP, en ¡El primer lugar!

Es decir, una vez que tiene vectores propios de JJ , con valores propios j(j+1) , hasta la normalización, ha caracterizado la dimensionalidad del vector propio v por 2j+1 , y su componente por el valor propio m de J0 en él, mientras que usted sabe cómo las J subiendo y bajando enviarán entradas a su ranura vecina. Entonces, escribir los estados en la convención |j,m> equivale a prepararlos para rotaciones mediante simples cambios de su m y multiplicaciones por números. Para ángulos pequeños θ , esto equivale a pasar a v + iθJ v para Jcualquier combinación lineal de estos 3 operadores de escalera.

Por el contrario, la estructura de estos operadores especifica el álgebra de Lie de las matrices con las que comenzó, de forma única (Cartan). Aquí, j 2 | j , metro = j ( j + 1 ) | j , metro , j 0 | j , metro = metro | j , metro y j ± | j , metro = j ( j + 1 ) metro ( metro ± 1 ) | j , metro ± 1 : si actuamos sobre ellos con sujetadores arbitrarios a la izquierda, j metro | producen los elementos de matriz de las matrices en cuestión, garantizados para satisfacer el álgebra SU(2) .

Pero este lenguaje es más simple que la simple multiplicación de matrices con el propósito de hacer la transición entre estados mediante operadores QM, el teorema de Wigner-Eckart, etc. La transición es solo un cambio de lenguaje algebraico lineal.

Para SU(3) , hay más valores propios de este tipo: no solo el análogo de j (isospin), sino también la hipercarga, el valor propio de Y=B+S , relacionado con el número cuántico de extrañeza. Y, de hecho, más operadores de escalera, V+ o U+ (por ejemplo , U -spin intercambia quarks d y s ) lo mueven entre los componentes de los vectores de manera adecuada; están etiquetados en patrones planos con simetría triangular, en lugar de líneas para simple. rotaciones Nuevamente, cada punto en estos diagramas de peso para el octeto, decuplet, etc... corresponde a una entrada de la d -dim vy sabes exactamente, virtualmente por inspección, cómo van a responder estos a una rotación exp( iθT ), por la forma inteligente en que fueron etiquetados; así que, de verdad, ¡sí!, un equivalente a la multiplicación de matrices. En el momento en que ha dibujado el diagrama de peso triangular que apunta hacia abajo para el decuplet de bariones, ha especificado implícitamente las matrices generadoras de 10x10 de SU(3) .

La preponderancia en la física del segundo idioma sobre la simple escritura de matrices dxd monstruosas le dice algo sobre su compacidad y utilidad.