¿Matrices ortogonales solo definidas para el producto interno estándar?

Deje que las matrices ortogonales se definan de la siguiente manera.

una matriz q METRO metro × norte ( k ) , dónde k es un campo, se dice que es ortogonal si

q T q = I d norte

No estoy completamente seguro de si estoy entendiendo correctamente el siguiente hecho:

una matriz q METRO metro × norte ( k ) es ortogonal si las columnas de q forman un conjunto ortonormal en k metro .

Prueba
Let q i denota el i -ésima columna de q para todos i { 1 , , norte } , y deja [ A ] i j denota el ( i , j ) -ésimo elemento de A para cualquier matriz A . Entonces, q ser una matriz ortogonal es equivalente a

q T q = I d norte [ q T q ] i j = d i j ,
dónde d i j es el delta de Kronecker. Por otro lado, por la definición de multiplicación de matrices,
[ q T q ] i j = k = 1 metro [ q T ] i k [ q ] k j = k = 1 metro [ q ] k i [ q ] k j = q i , q j .
De este modo q es ortogonal si y si
q i , q j = d i j ( i , j ) { 1 , , norte } × { 1 , , norte } ,
lo cual es cierto si ( q i ) i { 1 , , norte } forman un conjunto ortonormal.

Particularmente, sospecho de la igualdad marcada con el asterisco rojo. ¿No es eso cierto solo para el producto interno estándar (es decir, el producto escalar), definido como tu , v = i tu i v i   ? Entonces, ¿las matrices ortogonales solo se tratan en el contexto del producto interno estándar? Si es así, ¿existe una "generalización" de matrices ortogonales para espacios generales de productos internos?

Respuestas (2)

Aquí podría ser instructivo comenzar con la correspondiente descripción invariante (es decir, sin base) de la ortogonalidad:

En un espacio de producto interno de dimensión finita ( V , , ) , una transformación lineal T : V V se dice que es ortogonal si conserva el producto interior, es decir, si T ( X ) , T ( y ) = X , y .

Fijando una base ( mi a ) de V determina representaciones matriciales [ T ] de T y [ Σ ] del producto interior: Se caracterizan por

[ T ( mi a ) ] = b [ T ] b a [ mi a ] , [ Σ ] a b = mi a , mi b .
Desenrollando todo esto, vemos que T es ortogonal si
[ T ] [ Σ ] [ T ] = [ Σ ] .

En el caso especial de que la base ( mi a ) es ortonormal, se sigue inmediatamente de las definiciones que [ Σ ] = I , en cuyo caso la condición se simplifica a la definición familiar de matriz ortogonal :

[ T ] [ T ] = I .
Sobre un espacio de producto interno real, siempre podemos elegir una base ortonormal, por lo que la construcción más general puede parecer un formalismo innecesario. Pero tales bases no siempre son las más convenientes en aplicaciones, y si extendemos nuestra atención a formas bilineales simétricas no degeneradas (entonces, eliminemos la condición de definición positiva de la definición del producto interno), las bases ortogonales no existen, pero todavía nos preocupamos por la noción de ortogonalidad.

Sí, tal como esperaba, sin embargo, todo esto depende en gran medida de su elección de base. Dado que cada base B de un espacio vectorial V es en realidad una elección de isomorfismo φ B : k oscuro ( V ) V , podemos interpretar cualquier homomorfismo F : V W como matriz (depende en gran medida de la elección de la base). Elegir una base ortonormal con un producto interno arbitrario _ , _ V este isomorfismo llega incluso a ser compatible con el producto interior, es decir φ B ( X ) , φ B ( y ) V = X , y ecl . Para que pueda trasladar todas las construcciones. Sin embargo, en general, puede definir una matriz ortogonal como conmutación con el producto interno. Esto hace que el uso de la identificación anterior sea equivalente a la definición que conoce.

Sin embargo, prefiero hacer primero el caso general (es decir, conmutar con el producto interno) y luego especializarme usando la base.

Espero que esta sea una respuesta satisfactoria.