Docsity
Docsity

Prepara tus exámenes
Prepara tus exámenes

Prepara tus exámenes y mejora tus resultados gracias a la gran cantidad de recursos disponibles en Docsity


Consigue puntos base para descargar
Consigue puntos base para descargar

Gana puntos ayudando a otros estudiantes o consíguelos activando un Plan Premium


Orientación Universidad
Orientación Universidad

álgebra lineal.-Funciones multilineales y determinantes, Apuntes de Álgebra Lineal

Asignatura: algebra Lineal, Profesor: , Carrera: Ingeniería del Software, Universidad: URJC

Tipo: Apuntes

2010/2011
En oferta
30 Puntos
Discount

Oferta a tiempo limitado


Subido el 16/01/2011

eduardo-gindel
eduardo-gindel 🇺🇾

4.2

(10)

13 documentos

1 / 11

Documentos relacionados


Vista previa parcial del texto

¡Descarga álgebra lineal.-Funciones multilineales y determinantes y más Apuntes en PDF de Álgebra Lineal solo en Docsity! CAṔıTULO 9 Funciones multilineales y determinantes En este caṕıtulo generalizamos el concepto de transformación lineal, permitiendo que en el dominio de la función hayan varias variables. 1. Definiciones generales Definición 9.1. Sean V1, . . . , Vn,W espacios vectoriales y b : V1 × · · · × Vn → W una función. Decimos que b es multilneal si, fijando todas las variables menos la variable i-ésima, la función Vi → W que se obtiene es lineal. Por ejemplo, si fijamos todas las variables menos la primera, obtenemos que la función v à b(v, v02, . . . , v0n) : V1 → W es una transformación lineal – estamos considerando v02, . . . , v 0 n fijos. Llamamos Mult(V1, . . . , Vn; W ) al conjunto de todas las transformaciones multilinea- les con dominio en V1, . . . , Vn y codominio W . En el caso en que el codominio es el cuerpo de base, i.e., si W = k, decimos que b : V1 × · · · × Vn → k es una forma multilineal. Observación 9.2. (1) Por ejemplo, si n = 2 entonces las condiciones para que b ∈ Mult(V1, V2; W ) son las siguientes: b(αv+βv ′, w) = αb(v, w)+αb(v′, w) ; b(v, γw+δw′) = γb(v, w) + δb(v, w′) para todo α, β, γ, δ ∈ k y v, v′ ∈ V1 y w, w′ ∈ V2. Si compactificamos ambas fórmulas en una sola tenemos: b(αv + βv′, γw + δw′) = αγb(v, w) + αδb(v, w′) + βγb(v′, w) + βδb(v′, w′) . (2) De la misma manera que se prueba que si V y W son espacios vectoriales, entonces Hom(V, W ) es un espacio vectorial con las operaciones realizadas punto a punto, se puede probar que Mult(V1, . . . , Vn; W ) es un espacio vectorial con las operaciones realizadas punto a punto. Definición 9.3. (1) Una transformación multilineal b ∈ Mult(V, . . . , V ; W ) se dice simétrica si cuando se intercambian dos vectores de posición el resultado es el mismo. O sea si para todo 1 ≤ i < j ≤ n, se tiene que b(v1, . . . , vi−1,vi, vi+1, . . . , vj−1, vj, vj+1, . . . , vn) = b(v1, . . . , vi−1, vj, vi+1, . . . , vj−1, vi, vj+1, . . . , vn) . Llamamos Sim(V, . . . , V ; W ) al conjunto de todas las transformaciones multilineales simétricas. Si W = k denotamos Sim(V, . . . , V ;k) = Simn(V ). (2) Una trasnformación multilineal b ∈ Mult(V, . . . , V ; W ), se dice antisimétrica o alter- nada si cuando se intercambian dos vectores de posición el resultado es opuesto. O sea si para todo 1 ≤ i < j ≤ n, se tiene que b(v1, . . . , vi, . . . , vj, . . . , vn) = −b(v1, . . . , vj, . . . , vi, . . . , vn) . Llamamos Alt(V, . . . , V ; W ) al conjunto de todas las transformaciones lineales alter- nadas. Si W = k denotamos Alt(V, . . . , V ;k) = Altn(V ). 71 72 9. FUNCIONES MULTILINEALES Y DETERMINANTES Observación 9.4. (1) Es fácil ver que Sim(V, . . . , V ; W ) ⊂ Mult(V, . . . , V ; W ) y Alt(V, . . . , V ; W ) ⊂ Mult(V, . . . , V ; W ), son subespacios. En particular, Simn(V ) y Altn(V ) son espacios vectoriales de un modo natural. (2) Es claro que si b es una función multilineal alternada, como b(v1, . . . , v, . . . , v, . . . , vn) = −b(v1, . . . , v, . . . , v, . . . , vn) deducimos que b(v1, . . . , v, . . . , v, . . . , vn) = 0. También se prueba el rećıproco de la si- guiente forma. Si para todo b(v1, . . . , v, . . . , v, . . . , vn) = 0, obtenemos 0 = b(v1, . . . , v + w, . . . , v + w, . . . , vn) = b(v1, . . . , v, . . . , v, . . . , vn)+ b(v1, . . . , v, . . . , w, . . . , vn) + b(v1, . . . , w, . . . , v, . . . , vn)+ b(v1, . . . , w, . . . , w, . . . , vn) , de donde deducimos que b(v1, . . . , v, . . . , w, . . . , vn) = −b(v1, . . . , w, . . . , v, . . . , vn). 2. Formas bilineales, matrices asociadas Consideremos el caso particular en que tenemos formas bilineales. Se usa la notación Bil(V, W ) para indicar Mult(V × V,W ;k). Ejemplo 9.5. (1) Sea A ∈ Mn×m una matriz arbitraria. Definimos una forma bilineal BLA : kn × km → k de la siguiente forma: BLA(v, w) = vtAw donde vt indica el vector fila obtenido transponiendo el vector columna v. De esta forma construimos una función BL : Mn×m → Bil(kn, km). Es fácil ver que BLA es una forma bilineal y que la función BL : Mn×m → Bil(kn,km) es una transformación lineal. (2) Procediendo en forma semejante a como se procedió en el caso de transformaciones lineales se puede probar que BL es un isomorfismo. Definición 9.6. Sean V y W espacios vectoriales de dimensión finita y {e1, . . . , en} = B ⊂ V y {f1, . . . , fm} = C ⊂ W respectivas bases. La matriz ( b(ei, fj) ) 1≤i≤n 1≤j≤m ∈ Mn×m se llama la matriz asociada a la forma bilineal b en las bases B y C. Esa matriz se denota como B [b]C. Lema 9.7. La matriz asociada a una borma bilineal b en las bases B y C verifica: b(v, w) = cB(v)tB [b]C cC(w) . Demostración. Si escribimos v = ∑n i=1 αiei y w = ∑m j=1 βjfj tenemos que b(v, w) = ∑ i,j αiβjb(ei, fj) = ∑ i,j (α1, . . . , αn)b(ei, fj)   β1 ... βm   = cB(v)tB [b]C cC(w) . ¤ Otra forma de interpretar la proposición anterior es la siguiente. Lema 9.8. Sean V y W espacios vectoriales de dimensión finita y sean B ⊂ V , C ⊂ W respectivas bases. Si B [b]C es la matriz asociada a la forma bilineal b : V ×W → k, 4. PERMUTACIONES 75 son permutaciones también lo es σ ◦τ – muchas veces omitimos el śımbolo ◦ y escribimos simplemente στ . También a menudo omitiremos el sub́ındice en 1n y escribimos 1 ∈ Sn. De esta forma, hemos probado que el conjunto de todas las permutaciones de n elementos forman un grupo. (3) Las permutaciones se escriben frecuentemente de la siguiente forma σ = ( 1 2 . . . n σ(1) σ(2) . . . σ(n) ) (4) Por ejemplo, el grupo S3 tiene seis elementos que son: 1 = ( 1 2 3 1 2 3 ) σ = ( 1 2 3 2 1 3 ) τ = ( 1 2 3 3 2 1 ) ν = ( 1 2 3 1 3 2 ) ντ = ( 1 2 3 2 3 1 ) τν = ( 1 2 3 3 1 2 ) Definición 9.17. Una transposición es una permutación σ ∈ Sn con la siguiente propiedad: existen 1 ≤ i 6= j ≤ n tales que σ(i) = j , σ(j) = i , σ(k) = k , para todo k 6= i, j. Observación 9.18. Observar que si τ es una transposición, entonces τ 2 = 1, o sea que τ = τ−1. En el ejemplo de S3 presentado más arriba, σ, τ, ν son transposiciones. En S2 la única permutación diferente de 1 es una transposición. En el caso de S3 se observa que toda permutación es producto de transposiciones. Por ejemplo, la identidad 1 = σ2. Por otro lado esta descomposición no es única pues por ejemplo: 1 = σ2 = τ 2. El teorema que sigue que no demostraremos, dá información sobre este tipo de descomposiciones. Teorema 9.19. Si σ ∈ Sn es una permutación, existen transposiciones τ1, . . . , τl ∈ Sn tales que σ = τ1τ2 · · · τl. Además, si tenemos otra descomposición de la forma σ = ν1ν2 · · · νs con νi transposición para i = 1, . . . , s, entonces s− l es un número par. El teorema anterior garantiza que toda permutación se escribe como producto de transposiciones, de forma no necesariamente única, y que en dos descomposiciones dife- rentes de la misma permutación, la diferencia de las longitudes de ambas descomposicio- nes es un número par. Por ejemplo, no seŕıa posible descomponer, σ de dos formas diferentes, σ = τ1τ2τ3 = ν1ν2 donde τ1, τ2, τ3, ν1, ν2 son transposiciones. Definición 9.20. Si σ ∈ Sn es una permutación y σ = τ1τ2 . . . τl, se define el signo de σ como ε(σ) = (−1)l. Observación 9.21. (1) El Teorema 9.19 nos garantiza que la definición anterior es correcta, o sea que ε(σ) no depende de la descomposición elegida de σ en términos de transposiciones. (2) Si consideramos ε como una función, tenemos que ε : Sn → {−1, 1}. Es claro que el conjunto {−1, 1} es un grupo con la operación de producto. Con esa estructura ε es un homomorfismo de grupos, es decir que ε(στ) = ε(σ)ε(τ). 76 9. FUNCIONES MULTILINEALES Y DETERMINANTES 5. Unicidad de los determinantes. Determinantes de matrices Comenzamos calculando el signo ± que aparece en la ecuación (3.2). Lema 9.22. De acuerdo con las notaciones de la ecuación (3.1) tenemos que d ( eσ(1), . . . , eσ(n) ) = ε(σ)d(e1, . . . , en) Demostración. Escribimos σ = τ1 . . . τl donde τi, i = 1, . . . , l son transposicio- nes. Si abreviamos σ′ = τ1 . . . τl−1 tenemos que σ = σ′τl. Luego, d ( eσ(1), . . . , eσ(n) ) = d ( eσ′τl(1), . . . , eσ′τl(n) ) = −d(eσ′(1), . . . , eσ′(n) ) . La última igualdad se deduce del hecho de que d es alternada. Hemos visto que al reducir σ = τ1 . . . τl a σ ′ = τ1 . . . τl−1 el signo se cambia una vez. Si seguimos con ese procedimiento, y eliminamos todos los términos del producto σ = τ1 . . . τl uno por uno, realizaremos en la expresión de d, (−1)l cambios de signo. En definitiva, concluimos que d ( eσ(1), . . . , eσ(n) ) = ε(σ)d(e1, . . . , en). ¤ Definición 9.23. Dada una matriz, A ∈ Mn definimos su determinante por la fórmu- la det(A) = ∑ σ∈Sn ε(σ)α1σ(1) . . . αnσ(n). Podemos interpretar la igualdad de la ecuación (3.2) como d(v1, . . . , vn) = det(A)d(e1, . . . , en) (5.1) La función det : Mn → k la podemos pensar también como una función det : kn × · · · × kn → k. Si B = {e1, . . . , en}, la fórmula anterior (5.1) se puede escribir de la siguiente manera: d(v1, . . . , vn) = det ( cB(v1), . . . , cB(vn) ) d(e1, . . . , en) (5.2) Hemos probado que el diagrama de abajo conmuta. V × · · · × V cB×···×cB ²² d // k kn × · · · × kn d(e1,...,en) det 55llllllllllllllll Teorema 9.24. La función det : (kn)n = kn×· · ·×kn → k es una forma multilineal alternada. Demostración. Queremos probar que det es multilineal y alternada. Si c1 =   a11 a21 ... an1   , . . . , cn =   a1n a2n ... ann   ∈ kn , entonces det(c1, . . . , cn) = ∑ σ∈Sn ε(σ)a1σ(1) . . . anσ(n). Si i < j, entonces det(c1, . . . , cj, . . . , ci, . . . , cn) = ∑ σ∈Sn ε(σ)a1σ(1) . . . aiσ(j) . . . ajσ(i) . . . anσ(n) = ∑ σ∈Sn ε(σ)a1στ(1) . . . aiστ(i) . . . ajστ(j) . . . anστ(n) , 6. DETERMINANTES DE TRANSFORMACIONES LINEALES 77 donde τ es la transposición que intercambia i con j y deja el resto de los elementos del conjunto [n] fijos. Si hacemos en la sumatoria el cambio de variables ν = στ tenemos que det(c1, . . . , cj, . . . , ci, . . . , cn) = ∑ ν∈Sn ε(ντ)a1ν(1) . . . aiν(i) . . . ajν(j) . . . anν(n) = − ∑ ν∈Sn ε(ν)a1ν(1) . . . aiν(i) . . . ajν(j) . . . anν(n) = det(c1, . . . , ci, . . . , cj, . . . , cn) . En la prueba anterior hemos usado que ε(ντ) = ε(ν)ε(τ) = −ε(ν). ¤ Observación 9.25. Es claro que si probamos que det : kn×· · ·×kn → k ∈ Altn(kn), del diagrama anterior se concluye inmediatamente que d(v1, . . . , vn) = det(cB(v1), . . . , cB(vn)) ∈ Altn(V) . Teorema 9.26. Sea V un espacio vectorial de dimensión n y sea B = {e1, . . . , en} una base fija. (1) Sea d el elemento de Altn(V ) definido por la fórmula d(v1, . . . , vn) = det ( cB(v1), . . . , cB(vn) ) . Si ∆ : Altn(V ) → k es como antes, entonces ∆(d) = 1. (2) El espacio Altn(V ) tiene dimensión uno. Demostración. (1) ∆(d) = d(e1, . . . , en) = det(f1, . . . , fn), donde {f1, . . . , fn} es la base canónica de kn. Las entradas de la matriz correspondiente a la base canónica son δij, 1 ≤ i, j ≤ n, donde δij = 0 si i 6= j y δii = 1. Calculando expĺıcitamente: det(f1, . . . , fn) = ∑ σ∈Sn ε(σ)δ1σ(1) . . . δiσ(i) . . . δnσ(n). En la suma anterior, el único su- mando que no es cero es el que corresponde a σ(1) = 1, . . . , σ(i) = i, . . . , σ(n) = n; o sea el que corresponde a σ = 1. En definitiva tenemos que det(f1, . . . , fn) = ∑ σ∈Sn ε(σ)δ1σ(1) . . . δiσ(i) . . . δnσ(n) = ε(1)δ11 . . . δii . . . δnn = 1 . (2) Hemos probado que la transformación lineal ∆ no es nula; luego dim Altn(V ) 6= 0. Por otro lado, deducimos del Lemma 9.15 que dim Altn(V ) ≤ 1, luego dim Altn(V ) = 1. ¤ Corolario 9.27. Si V es un espacio de dimensión n y B = {e1, . . . , en} es una base dada, existe una y sólo una función n-lineal alternada d definida en V tal que d(e1, . . . , en) = 1. 6. Determinantes de transformaciones lineales En esta sección definimos el determinante de una transformación lineal de un espacio en śı mismo. Lema 9.28. Sea V un espacio vectorial y T : V → V una transformación lineal. Si d ∈ Altn(V ) y definimos dT : V × · · ·×V → k por la siguiente fórmula: dT (v1, . . . , vn) = d ( T (v1), . . . , T (vn) ) , entonces dT ∈ Altn(V ). 80 9. FUNCIONES MULTILINEALES Y DETERMINANTES Si escribimos en la segunda sumatoria i = σ ( σ−1(i) ) tenemos la siguiente cadena de igualdades: ∑ σ∈Sn ε(σ)aσ(1)1 . . . aσ(n)n = ∑ σ∈Sn ε(σ)aσ(1)σ−1(σ(1)) . . . aσ(n)σ−1(σ(n)) = ∑ σ∈Sn ε(σ)a1σ−1(1) . . . anσ−1(n) = ∑ σ∈Sn ε(σ)a1σ(1) . . . anσ(n) . La penúltima igualdad se obtiene simplemente cambiando el orden de los facto- res aσ(i)σ−1(σ(i)), con i = 1, . . . , n de modo que queden ordenados en orden creciente {1, . . . , n}. La última igualdad se obtiene haciendo en la sumatoria un cambio de varia- bles de σ por σ−1, y al σ recorrer Sn lo mismo pasa con σ−1. ¤ Definición 9.39. (1) Sea A ∈ Mn una matriz cuadrada. Fijados un par de sub́ındices 1 ≤ i, j ≤ n se considera una matriz mij(A) ∈ Mn−1, que se obtiene a partir de la matriz A eliminando la columna i y la fila j. La matriz mij(A) se llama el menor (si es necesario aclararlo el n− 1 menor) (i, j) de la matriz A. (2) Se define en la misma situación que arriba, para i, j fijados, el escalar cij(A) = (−1)i+j det(mij(A)). (3) Se define la matriz adjunta de la matriz A de la siguiente forma: ad(A) = ( cij(A) )t 1≤i,j≤n . Ejemplo 9.40. Si A = ( a11 a12 a21 a22 ) . En este caso los menores son matrices uno por uno, o sea escalares, escribimos expĺıcitamente c11 = a22, c12 = −a21, c21 = −a12, c22 = −a22. El siguiente teorema muestra que un determinante se puede calcular desarrollando por una fila, o por una columna. Teorema 9.41. Sea A ∈ Mn una matriz cuadrada. (1) det(A) = a1ic1i(A) + a2ic2i(A) + · · · + anicni(A). Esta fórmula se llama fórmula del desarrollo de un determinante por la columna i–ésima. (2) det(A) = aj1cj1(A) + aj2cj2(A) + · · ·+ ajncjn(A). Esta fórmula se llama fórmula del desarrollo de un determinante por la fila j–ésima. Demostración. Es claro que tomando matrices transpuestas podemos transformar la ecuación (1) en la ecuación (2). Probaremos sólo la segunda. Llamamos β(A) = aj1cj1(A) + aj2cj2(A) + · · · + ajncjn(A). Queremos probar que β ∈ Altn(kn). Si dejamos a todas las columnas fijas y ponemos la columna k–ésima como suma aik = bik + cik, llamamos B a la matriz obtenida sustituyendo la columna k por la formada por los bik y C a la correspondiente matriz para los cik. En el desarrollo aj1cj1(A)+aj2cj2(A)+· · ·+ajncjn(A), cada menor cjl(A) que no sea el cjk, se descompone cjl(A) = cjl(B) + cjl(C). En el lugar j, k tenemos la descomposición ajk = bjk + cjk. 7. CÁLCULOS DE DETERMINANTES, MENORES 81 En definitiva tenemos que aj1cj1(A) + aj2cj2(A) + · · · + ajncjn(A) = aj1(cj1(B) + cj1(C)) + aj2(cj2(B) + cj2(C)) + · · · + (bjk + cjk)cjk(A) + · · · + ajn(cjn(B) + cjn(C)) = β(B) + β(C). En forma parecida se demuestra que β es alternada. Como β y det son elementos de Altn(kn), que tiene dimensión uno, será uno múltiplo del otro. Como por otro lado β(Idn) = 1 = det(Idn), concluimos la igualdad buscada. ¤ Teorema 9.42. Si A ∈ Mn, entonces A ad(A) = ad(A)A = det(A) Idn. Demostración. La entrada k, l de la matriz A ad(A) es ∑ r akrclr(A). De acuerdo con los resultados anteriores (ver Teorema 9.41) en el caso en que k = r, este escalar es igual a det(A). Si k 6= r formemos una nueva matriz que es igual a la original pero en la que sustituimos la fila k por la fila r. Llamemos A′ a esa nueva matriz (que tiene dos filas iguales). Aplicando los resultados del Teorema a la matriz A′ deducimos que 0 = det(A′) = a′k1ck1(A ′)+ · · ·+a′knckn(A′) = ar1ck1(A)+ · · ·+arnckn(A). De esta manera hemos probado el resultado buscado y A ad(A) = det(A) Idn. Para probar la restante igualdad procedemos como sigue. Si aplicamos la propiedad anteriormente probada a At, tenemos que At ad(At) = det(At) Idn, o equivalentemente ( ad(A)A )t = det(A) Idn. De ahi deducimos que ad(A)A = det(A) Idn. ¤ Corolario 9.43. Si A ∈ Mn, entonces A es invertible si y sólo si det(A) 6= 0. En ese caso A−1 = ad(A)/ det(A). ¤ Corolario 9.44. Si V es un espacio vectorial de dimensión finita y T : V → V es una transformación lineal, entonces T es invertible si y sólo si det(T ) 6= 0. ¤
Docsity logo



Copyright © 2024 Ladybird Srl - Via Leonardo da Vinci 16, 10126, Torino, Italy - VAT 10816460017 - All rights reserved