Menor bordeado y rango de una matriz

Dejar METRO R norte × norte ser una matriz. Supongamos que hay un k × k menor METRO k de rango k. Ahora bien, esta referencia (Algebra For Iit Jee 7.65) aquí establece que si todos los k + 1 los menores limítrofes con el menor METRO k desaparecer esto implica que el rango de METRO es de hecho k . ¿Es esto obvio? Y si es así, ¿qué es exactamente un menor limítrofe?

No está claro qué se entiende por 'menor limítrofe'. Su referencia no parece dar las páginas donde se introduce por primera vez el determinante. No es obvio por qué uno debería considerar sólo a los 'menores limítrofes' en contraposición a todos s × s menores donde k < s < norte a menos que limite a un menor de edad yo × yo minor es por definición cualquier l+1\times l+1$ Minor.
Exactamente. Ese es mi principal problema. No entiendo la definición. El ejemplo que luego da el libro parece indicar, sin embargo, que no se trata de yo / t i metro mi s yo menor
No es obvio, pero sigue siendo cierto.
Es bien sabido que el rango de una matriz A sobre un campo es igual al entero más grande t tal que A contiene una t × t submatriz cuyo determinante es distinto de cero. Así que uno puede tomar esto como la definición o rango de A (en lugar del que tiene que ver con la forma escalonada de filas).
@Any: Ok, estoy de acuerdo con tu definición: Entonces, tener un yo \tims yo menor que no desaparece da rango METRO al menos yo . Lo que aún no entiendo es por qué es suficiente verificar solo los menores "aledaños" para concluir que todos los menores mayores desaparecen.
@Orageskid: ¡Así que cualquier comentario sobre por qué es cierto sería muy apreciado!

Respuestas (1)

No sé qué es un "menor limítrofe". Esto no parece ser una palabra con un significado estándar. Sin embargo, aquí hay un teorema que es verdadero:

Teorema 1. Sea k ser un campo. Dejar A k tu × v ser una matriz. A continuación, siempre que i 1 , i 2 , , i k { 1 , 2 , , tu } y j 1 , j 2 , , j { 1 , 2 , , v } , lo denotaremos por A [ j 1 , j 2 , , j i 1 , i 2 , , i k ] el k × -matriz cuya ( pag , q ) -ésima entrada es la ( i pag , j q ) -ésima entrada de A para cada ( pag , q ) { 1 , 2 , , k } × { 1 , 2 , , } .

Dejar k norte . Dejar i 1 , i 2 , , i k { 1 , 2 , , tu } y j 1 , j 2 , , j k { 1 , 2 , , v } ser tal que det ( A [ j 1 , j 2 , , j k i 1 , i 2 , , i k ] ) 0 . Suponga que cada i { 1 , 2 , , tu } { i 1 , i 2 , , i k } y j { 1 , 2 , , v } { j 1 , j 2 , , j k } satisfacer

(1) det ( A [ j 1 , j 2 , , j k , j i 1 , i 2 , , i k , i ] ) = 0 .

Entonces, rango A = k .

Prueba. Suponga lo contrario; es decir, suponga que rango A k .

En primer lugar, observamos que los números i 1 , i 2 , , i k son distintos (porque de lo contrario, la matriz A [ j 1 , j 2 , , j k i 1 , i 2 , , i k ] tendría dos filas iguales, lo que produciría det ( A [ j 1 , j 2 , , j k i 1 , i 2 , , i k ] ) = 0 , contradiciendo det ( A [ j 1 , j 2 , , j k i 1 , i 2 , , i k ] ) 0 ). Del mismo modo, los números j 1 , j 2 , , j k son distintos.

Las filas de la matriz A [ j 1 , j 2 , , j k i 1 , i 2 , , i k ] son linealmente independientes (ya que det ( A [ j 1 , j 2 , , j k i 1 , i 2 , , i k ] ) 0 ). Por lo tanto, las filas de la matriz A [ 1 , 2 , , v i 1 , i 2 , , i k ] también son linealmente independientes (ya que las filas de la matriz A [ j 1 , j 2 , , j k i 1 , i 2 , , i k ] son fragmentos de las filas de la matriz A [ 1 , 2 , , v i 1 , i 2 , , i k ] , y por lo tanto cualquier relación de dependencia lineal entre estos últimos produciría una relación de dependencia lineal entre los primeros). En otras palabras, el i 1 -th, el i 2 -th, etc., el i k -ésimas filas de la matriz A son linealmente independientes. Por lo tanto, la matriz A tiene k filas linealmente independientes; de este modo, rango A k . Combinado con rango A k , esto produce rango A > k . Así, el espacio fila de A no se puede abarcar solo k de sus filas (porque si pudiera, entonces su dimensión sería k , lo que contradiría el hecho de que su dimensión es rango A > k ). Por lo tanto, existe al menos una i { 1 , 2 , , tu } { i 1 , i 2 , , i k } tal que el i -ésima fila de A no pertenece al lapso de la i 1 -th, el i 2 -th, etc., el i k -ésimas filas de A . Arreglar tal i . Lo sabemos:

  • El i -ésima fila de A no pertenece al lapso de la i 1 -th, el i 2 -th, etc., el i k -ésimas filas de A .

  • El i 1 -th, el i 2 -th, etc., el i k -ésimas filas de A son linealmente independientes.

Combinando estos dos hechos, concluimos que i 1 -th, el i 2 -th, etc., el i k -th, y el i -ésimas filas de A son linealmente independientes. En otras palabras, las filas de la matriz A [ 1 , 2 , , v i 1 , i 2 , , i k , i ] son linealmente independientes. Como esta matriz tiene k + 1 filas, concluimos que rango ( A [ 1 , 2 , , v i 1 , i 2 , , i k , i ] ) = k + 1 > k . Por lo tanto, el espacio columna de A [ 1 , 2 , , v i 1 , i 2 , , i k , i ] no se puede abarcar solo k de sus columnas (ya que si pudiera, entonces su dimensión sería k , lo que contradiría la observación de que su dimensión es rango ( A [ 1 , 2 , , v i 1 , i 2 , , i k , i ] ) > k ). Por lo tanto, existe al menos una j { 1 , 2 , , v } { j 1 , j 2 , , j k } tal que el j -ésima columna de A [ 1 , 2 , , v i 1 , i 2 , , i k , i ] no pertenece al lapso de la j 1 -th, el j 2 -th, etc., el j k -ésimas columnas de A [ 1 , 2 , , v i 1 , i 2 , , i k , i ] . Arreglar tal j .

Por otro lado, las columnas de la matriz A [ j 1 , j 2 , , j k i 1 , i 2 , , i k ] son linealmente independientes (ya que det ( A [ j 1 , j 2 , , j k i 1 , i 2 , , i k ] ) 0 ). En otras palabras, el j 1 -th, el j 2 -th, etc., el j k -ésimas columnas de la matriz A [ 1 , 2 , , v i 1 , i 2 , , i k ] son linealmente independientes. Por lo tanto, la j 1 -th, el j 2 -th, etc., el j k -ésimas columnas de A [ 1 , 2 , , v i 1 , i 2 , , i k , i ] son linealmente independientes (porque j 1 -th, el j 2 -th, etc., el j k -ésimas columnas de la matriz A [ 1 , 2 , , v i 1 , i 2 , , i k ] son fragmentos de la j 1 -th, el j 2 -th, etc., el j k -ésimas columnas de A [ 1 , 2 , , v i 1 , i 2 , , i k , i ] , y por lo tanto cualquier relación de dependencia lineal entre estos últimos produciría una relación de dependencia lineal entre los primeros). Ahora sabemos que:

  • El j -ésima columna de A [ 1 , 2 , , v i 1 , i 2 , , i k , i ] no pertenece al lapso de la j 1 -th, el j 2 -th, etc., el j k -ésimas columnas de A [ 1 , 2 , , v i 1 , i 2 , , i k , i ] .

  • El j 1 -th, el j 2 -th, etc., el j k -ésimas columnas de A [ 1 , 2 , , v i 1 , i 2 , , i k , i ] son linealmente independientes.

Combinando estos dos hechos, concluimos que el j 1 -th, el j 2 -th, etc., el j k -th, y el j -ésimas columnas de A [ 1 , 2 , , v i 1 , i 2 , , i k , i ] son linealmente independientes. En otras palabras, las columnas de la matriz A [ j 1 , j 2 , , j k , j i 1 , i 2 , , i k , i ] son linealmente independientes. Por eso, det ( A [ j 1 , j 2 , , j k , j i 1 , i 2 , , i k , i ] ) 0 . Pero esto contradice (1) . Por lo tanto, hemos encontrado una contradicción y el Teorema 1 está probado.