alii

Upload: hugopech

Post on 19-Jul-2015

83 views

Category:

Documents


0 download

TRANSCRIPT

ALGEBRA LINEAL IIDr. Vctor Manuel Bautista AnconaDiciembre 2011ndice generalPrefacio pg. vIntroduccin 11. Transformaciones lineales y matrices 81.1. Transformaciones lineales inyectivas y suprayectivas 81.2. Isomorsmos y transformaciones inversas 111.3. La matriz de cambio de base 151.4. La matriz asociada a una transformacin lineal 191.5. Matrices asociadas con suma y producto por escalar de transfor-maciones lineales 211.6. Matriz asociada a la composicin de transformaciones lineales 211.7. El isomorsmoentreel espaciovectorial delasmatricesyelespacio vectorial de las transformaciones lineales 221.8. Equivalenciaysemejanzaentrematricesasociadasalamismatransformacin lineal 23Ejercicios 242. Teoria Espectral 282.1. Polinomios de matrices y de operadores lineales 282.2. Valores propios y vectores propios 292.2.1. Otra aproximacin: puntos jos y dilatacin de vectores 292.2.2. Algunos hechos utiles sobre raices de polinomios 302.2.3. Deniciones bsicas 312.3. Polinomio caracterstico 332.4. Una caracterizacin de matrices diagonalizables 352.4.1. Suma directa de subespacios 352.4.2. El complemento de Schur 362.4.3. Espacios de autovectores y diagonalizacin 372.5. Triangulacin de operadores lineales 402.6. El Teorema de Cayley-Hamilton 412.6.1. Polinomios con coecientes matriciales 412.6.2. El Teorema del Mapeo Espectral 432.7. El polinomio mnimo 452.7.1. El polinomio mnimo de una matriz 452.7.2. El polinomio mnimo de un vector 47iv ndice general2.7.3. Cmo hallar el polinomio minimal de un vector 482.7.4. Un criterio de diagonalizacin usando el polinomio mnimo 49Ejercicios 513. Espacios con producto interno 553.1. Producto Interno 553.1.1. Denicin y Ejemplos 553.1.2. Norma de un vector 573.1.3. Distancia entre vectores 593.1.4. ngulo entre dos vectores 603.1.5. Matriz de Gram de un producto interno en una base devectores 603.2. Ortogonalidad 623.2.1. Conjuntos ortogonales y ortonormales 623.3. El proceso de ortogonalizacin de Gram-Schmidt 653.4. Complemento ortogonal 68PrefacioEl lgebra Lineal es una herramienta bsica para casi todas las ramas de la matem-tica as como para disciplinas anes tales como la fsica, la ingeniera y la computacin,entre otras.Estas notas, basadas enlamaterialgebraLineal II destinadaaalumnos delaLicenciaturas en: actuara, enseanza de las matemticas y matemticas de la Facultadde Matemticas de la Universidad Autma de Yucatn, pretenden, entre tantos buenostextos de lgebra lineal existentes, ser slo una introduccin bsica al tema que se ajustaa los contenidos curriculares del curso y, al mismo tiempo, una gua de estudios paralos alumnos.Las notas presuponen conocimientos previos de lgebra lineal: solucin y anlisis desistemasdeecuacioneslineales; clculoypropiedadesdedeterminantes; deniciones,propiedades y los resultados ms importantes de espacios vectoriales; y kernel, imagen,rango y nulidad de transformaciones lineales.Al inicio de estas notas, hacemos un breve resumen de algunos resultados, denicionesy propiedades de los espacios vectoriales y las transformaciones lineales..Si el lector tiene algn comentario, correccin, sugerencias, etc., por favor envale uncorreo electrnico al autor.Copyright: Victor Bautista Ancona, 2011-2012.Licencia: Creative Commons Attribution-Share Alike 3.0 LicenseCorreo electrnico: [email protected] material est parcialmente nanciado por el Consejo Nacional de Ciencia y Tec-nologa.IntroduccinSe presenta un breve resumen y algunos resultados nuevos los cuales son los requisitosmnimos para continuar la lectura del captulo siguiente.Espacios VectorialesDenicin0.1 Sea K un campo. Un espacio vectorial sobre K (o un K-espacio), esuna tupla(V, +, ) tal que:1.. + : V V Ves una funcin llamada suma.2.. v +u = u +v para todosv, u V .3.. (v +u) +w = v + (u +w) para todosv, u, w V .4.. Existe un nico vector0 Vtal quev + 0 = v para todov V .5.. Para todov Vexiste un nico vector v, tal quev + (v) = 0.6..: KV Ves una funcin llamada la multiplicacin escalar.7.. a(v +u) = (av) + (au) para todoa K, v, u V .8.. (a +b)v= (av) + (bv) para todoa, b K, v V .9.. (ab)v= a(bv)para todoa, b K, v V .10.. (1K)v= v para todov V .Los elementos de un espacio vectorial son llamados vectores. Usualmente escribimos kven lugar dekv.Ejemplo 0.2 Sea K un campo.1.. Z1= 0 es un K-espacio vaf0 = 0 para todak K.2.. Sean N. Entonces Knes un K-espacio viak(a1, . . . , an)=(ka1, . . . , kan) paratodak, a1, . . . , an K.3.. El anillo K[x] de polinomios con coecientes en K es un K-espacio viak(a0 +a1x + +anxn) = (ka0) + (ka1)x + + (kan)xnpara todak, a1. . . . , an K.Denicin0.3 Sea K un campo yVun K-espacio. Sea /=(v1, . . . , vn) Vnunalista de vectores enV .2 Introduccin1.. / es llamado K-linealmente independiente sia1v1 +a2v2 + +anvn= 0Vpara algunasa1, a2, . . . , an K implica quea1= a2== an= 0K.2.. Sea(a1, a2, . . . , an) Kn. Entonces a1v1+ a2v2++ anvnesllamadaunaK-combinacin lineal de /.genK(/) = / = a1v1 +a2v2 + +anvn [ (a1, . . . , an) Knes llamado el K-espaciogenerado por /. As que genK(/) consiste de todas las K-combinacioneslinealesde /. Consideremos 0Vunacombinacinlineal delalistavaca() y as genK() = 0V.3.. Decimos que / generaV , siV= genK(/), esto es, cada vector enVes una combi-nacin lineal de /.4.. Decimos que / es una base deVsi / es linealmente independiente y generaV .5.. Decimos que / es linealmentedependiente si no es linealmente independiente, estoes, si existenk1, . . . , kn K, no todos cero tales quek1v1 +k2v2 + +knvn= 0V.Ejemplo 0.4 1.. Hagamosei= (0K,. . . , 0K, 1K, 0K, . . . , 0K) Kndonde el1Kest enla posicin i. Entonces (e1, e2, . . . , en) es una base para Kn, llamada la base cannica(o estndar) de Kn.2.. _1K, x, x2, . . . , xn_ es una base para Kn[x], donde Kn[x] es el conjunto de todos lospolinomios con coecientes en K de grado a lo msn.3.. La lista vaca() es una base para Z1.Lema0.5 SeaKuncampo, V unK-espaciovectorial y /=(v1, . . . , vn)unalistadevectoresenV .Entonces /esunabasedeV siysolamentesicadav V existenk1, . . . , kn K nicos tales quev=n

i=1kivi.Demostracin () Suponga que / es una base. Entonces / genera a V , y para cadav Vexistenk1, . . . , kn K conv=n

i=1kivi.Supongamos que existen tambinl1, . . . , ln K conv=n

i=1livi.Entoncesv=n

i=1(ki li)vi=n

i=1kivi n

i=1livi= v v= 0V.Dado que / es linealmente independientes concluimos que kili= 0K y de aqu ki= lipara toda1 i n. As que losk

is son nicos.Introduccin 3()SupongaquecadavV esunanicacombinacinlineal de /. Entoncesclaramente / generaV . Seak1, . . . , kn K conv=n

i=1kivi= 0V.Dado que tambin tenemosv=n

i=10Kvi= 0Vde la hiptesis de unicidad obtenemosk1= =kn=0K. De aqu, / es linealmenteindependiente y de aqu, una base paraV .Lema0.6 SeaKuncampoyV unK-espacio. Sea /=(v1, . . . , vn)unalistadevectores enV . Supongamos que existe1 i n tales quevies combinacin lineal de(v1, . . . , vi1, vi+1, . . . , vn). Entonces / es linealmente dependiente.Demostracin Por hiptesis,vi= k1v1 + +ki1vi1 +ki+1vi+1 + +knvnpara algunaskj K. De aquk1v1 + +ki1vi1 + (1K)vi +ki+1vi+1 + +knvn= 0Vy / es linealmente dependiente.Denicin 0.7 Un espacio vectorialVsobre un campo K se dice que es nitamentedimensional siVtiene una base nita. El tamao (nmero de elementos) de cualquierbase es la dimensin deVsobre K y se denota dimKV .Lema 0.8 Sea K un campo,Vun K-espacio y / = (v1, v2, . . . , vn) una lista nita devectores enV . Entonces las siguientes armaciones son equivalentes:1.. / es una base paraV .2.. / es una lista generadora minimal, esto es, / genera aVpero para toda1 i n,(v1, . . . , vi1, vi+1, . . . , vn)no genera aV .3.. /esunalistalinealmenteindependientemaximal,estoes, /eslinealmenteinde-pendiente, pero para todav V ,(v1, v2, . . . , vn, v) es linealmente dependiente.Demostracin (a) (b)Dadoque /esbase, generaaV . Dadoque /eslineal-mente independiente, el Lema 0.6 implica quevino pertenece al espacio generado de(v1, . . . , vi1, vi+1, . . . , vn) y de aqu,(v1, . . . , vi1, vi+1, . . . , vn) no genera aV .(a) (c) Seav V . Dado que / genera aV ,ves una combinacin lineal de / yde aqu, por el Lema 0.6(v1, v2, . . . , vn, v) es linealmente dependiente.(b) (a) Por hiptesis, / genera aVas que nicamente necesitamos mostrar que/eslinealmenteindependiente. Supongamosqueno. Entonces ni=1kivi=0Vpara4 Introduccinalgunos k1, k2. . . , kn K, notodos 0K. Sinprdidadegeneralidad, asumamosquek1 ,= 0K. De aqu,v1= k11_n

i=2kivi_.Seav V . Entoncesv=

ni=1aivi para algunasai K y de aquv= a1_k11_n

i=2kivi__+n

i=2aivi=n

i=2_ai k11ai_vi.De aqu,(v2, . . . , vn) generan aV , una contradiccin.(b) (c) Por hiptesis, / es linealmente independiente, as que solamente tenemosque probar que / genera a V . Sea v V . Por hiptesis, (v1, v2, . . . , vn, v) es linealmentedependiente y de aqu_n

i=1aivi_+av= 0Vparaalgunos a1, . . . , an, a Knotodos cero. Si a =0K, entonces dadoque /eslinelamenteindependiente, ai=0Kparatoda1 i n, unacontradiccin. Porlotanto,a ,= 0K yv=n

i=1_a1ai_vi.De aqu, / genera aV .Transformaciones LinealesDenicin 0.9 Sea K un campo y V, Wdos K-espacios. Una transformacin K-linealdeVaWes una funcinf: V Wtal quef (u +v) = f (u) +f (v) para todou, v V .f (kv) = kf (v) para todok K yv V .Estas dos condiciones juntas son equivalentes a la siguiente nica condicinf (k1u +k2v) = k1f (u) +k2f (v) para todok1, k2 Ku, v V .SiV= Wentonces la transformacin lineal recibe el nombre de operador K-lineal.Para una transformacin K-linealf: V W, siempre tenemos quef(0V ) = 0W.El siguiente ejemplo introduce un tipo importante de transformacin lineal asociadaa una matriz.Introduccin 5Ejemplo 0.10 Si A Mmn(K) es una matriz de mn. Dena fA: KnKmporla reglafA (x) = Ax.Entonces paras, t K yu, v Kn,fA (su +tv) = A(su +tv) = sAu +tAv= sfA (u) +tfA (v) .De aqu,fA es lineal. Y llamamos afA la transformacin lineal inducido porA.Observe que los vectores de la base cannica e1, . . . , en (vistos como vectores columna)satisfacenfA (ej) = j sima columna deA,de aqu,A = (fA (e1) [ fA (e2) [[ fA (en)) = [Ae1, Ae2, . . . , Aen] .Ahora, fcilmentesesiguequefA (e1) , fA (e2) , . . . , fA (en)generanImfAdadoquecada elemento del ltimo es una combinacin lineal defA (e1) , fA (e2) , . . . , fA (en).Teorema 0.11 Seaf: V Wyg: U Vdos transformacin lineales entre losK-espacios vectorialU, V, W. Entonces la composicinf g: U Wes tambin unatransformacin lineal.Demostracin Paras, t K yu1, u2 Utenemos que mostrar que(f g) (su1 +tu2) = s (f g) (u1) +t (f g) (u2) .Usando el hecho quefyg son lineales tenemos(f g) (su1 +tu2) = f (g (su1 +tu2))= f (sg (u1) +tg (u2))= sf (g (u1)) +tf (g (u2))= s (f g) (u1) +t (f g) (u2) .SeanV yWdos K-espaciosvectoriales.Elconjuntodetodaslastransformacioneslineales f : V WserdenotadoporHomK (V, W)(enlaliteratura, tambinesdenotado porL(V, W)).Teorema 0.12 HomK (V, W) es un K-espacio vectorial con las operaciones denidasde la siguiente manera:+ : HomK (V, W) HomK (V, W) HomK (V, W)(f, g) f+gdondef+g HomK (V, W) es tal quef+g: V W, (f+g) (v) f (v) +g (v) parav V . Y : KL(V, W) HomK (V, W)(s, f) sfdondesf HomK (V, W) es tal quesf: V W, (sf) (v) = sf (v).6 IntroduccinDemostracin f+g abre sumas: seanv, u V. Tenemos que(f+g)(v +u) = f(v +u) +g(v +u)= [f(v) +f(u)] + [g(v) +g(u)]= f(v) +g(v) +f(u) +g(u)= (f+g)(v) + (f+g)(u).f+g saca escalares:(f+g)(av) = f(av) +g(av) = af(v) +ag(v)= a[f(v) +g(v)] = a[(f+g)(v)];porlotanto, f+ gesunatransformacinlineal.Hagamoslomismoconsf. sfabresumas: seanv, u V. Tenemos que:(sf)(v +u) = s[f(v +u)] = s[f(v) +f(u)]= sf(v) +sf(u) = (sf)(v) + (sf)(u).sfsaca escalares:(sf)(bv) = s[f(bv)] = s[bf(v)] = [sb]f(v)= [bs]f(v) = b[sf(v)] = b[(sf)(v)];porlotanto, sfesunatransformacinlineal. Finalmente, el hechodequeconestasoperaciones de suma y multiplicacin por escalares HomK (V, W) sea un K-espacio vec-torial, se sigue de que las propiedades necesarias para HomK (V, W) se heredan deVyW. Por ejemplo,f+g= g +fporquef(v) +g(v) = g(v) +f(v).Denicin 0.13 Seaf: V Wuna transformacin lineal. EntoncesEl kernel (o ncleo o espacio nulo) defes el subconjunto deV:ker (f) = v V [ f (v) = 0La imagen defes el subconjunto deW:Im(f) = w W [ existev V, w = f (v)= f (v) [ v V .Teorema 0.14 Seaf: V Wuna transformacin lineal. Entonces1.. ker(f) KV,2.. Im(f) KW.Demostracin (1) Sean s1, s2 Ky v1, v2 ker(f). Debemos mostrar que s1v1+s2v2 ker(f),esdecir,quef (s1v1 +s2v2)=0.Dadoquefesunatransformacinlinealyf (v1) = f (v2) = 0, tenemosf (s1v1 +s2v2) = s1f (v1) +s2f (v2)= s10 +s20= 0,de aqu,s1v1 +s2v2 ker(f). De aqu, ker(f) es un subespacio deV .(2) Ejercicio.Introduccin 7Denicin 0.15 Seaf: V Wuna transformacin lineal. Entonces el rango defesrango (f) = dim Im(f) ,y la nulidad defesnulidad (f) = dim ker (f) .Teorema 0.16 (El teorema del rango-nulidad) Seaf: V Wuna transformacinlineal conVde dimensin nita. EntoncesdimV= rango (f) +nulidad (f) .Demostracin Escojamos una base del ker(f), digamos u1, . . . , uk. Note que nulidad(f) =k. Extendemos la base del ker(f) a una base deV , digamos, u1, . . . , uk, uk+1, . . . , undonden = dimV. Ahora, paras1, . . . , sn K,f (s1u1 +s2u2 + +snun) = s1f (u1) +s2f (u2) + +snf (un)= s10 + +sk0 +sk+1f (uk+1) + +snf (un)= sk+1f (uk+1) + +snf (un)EstomuestraqueIm(f)esgeneradoporlosvectoresf (uk+1) , . . . , f (un).Dehecho,esta ltima expresion es nicamente cero cuando s1u1+s2u2++snun ker(f) lo cualpasa sisk+1== sn= 0. De aqu, los vectoresf (uk+1) , . . . , f (un) son linealmenteindependientes y de aqu, forman una base para Im(f). De aqu, rango(f) = n k y elresultado se sigue.1Transformaciones lineales y matrices1.1Transformaciones lineales inyectivas y suprayectivasRecordemos la denicin de funciones inyectivas y suprayectivas.Denicin 1.1 Una funcinf: X Yes:inyectiva(o una inyeccino uno-a-uno) si parax1, x2 X,f (x1) = f (x2) implica quex1= x2,suprayectiva(o una suprayeccino sobre) si para caday Yexiste unax Xparala cualy= f (x).Paratransformacioneslineales,podemosdecidirdeunamejormaneracuandounatransformacin es inyectiva o suprayectiva.Teorema 1.2 Seaf: V Wuna transformacin lineal.1.. fes inyectiva si y solamente si kerf= 0.2.. fes suprayectiva si y solamente si Imf= W.Demostracin 1.. Notequef (0) =0. Deaqu, si fesinyectivaentoncesf (v) =0implica quev= 0, es decir, kerf= 0.Recprocamente, supongamos que kerf= 0,v1, v2 Vyf (v1) = f (v2). Dadoquefes lineal,f (v1 v2) = f (v1 + (1) v2)= f (v1) + (1) f (v2)= f (v1) f (v2)= 0de aqu,f (v1 v2)=0 y de aqu,v1 v2=0, i.e.v1=v2. Esto muestra quefesinyectiva.2.. Es inmediato de la denicin de suprayectividad.Usando Teorema 1.2, podemos reescribir el Teorema del rango-nulidad.Teorema 1.3 Seaf: V Wuna transformacin lineal.1.1Transformaciones lineales inyectivas y suprayectivas 91.. fes inyectiva si y solamente si nulidad(f) = 0.2.. fes suprayectiva si y solamente sirango (f) = dimW.Ejercicio 1.4 Demostrar el Teorema 1.3.Corolario1.5 Seaf : V Wunatransformacinlineal conV yWespaciosvectoriales sobreKde dimensin nita. Entonces:1.. sifes una inyectiva, entonces dimKV dimKW;2.. sifes suprayectiva, entonces dimKV dimKW.Demostracin Usamos el Teorema de la dimensin y el Teorema 1.2.1.. Dado que Imfes un subespacio deW, tenemos dim Imf dimW, de aqu, sifes inyectiva,dimV= rango (f) dimW.2.. Sifes suprayectiva tenemosdimV> rango (f) = dimW.Ms an,Corolario1.6 SeadimV =dimW=n.Entonces,unatransformacinlineal f :V Wes inyectiva si y solamente si es suprayectiva.Demostracin f es inyectiva si y slo si nulidad(f) = 0 si y solamente si n = rango (f)si y solamente si Imf= Wsi y solamente sifes suprayectiva.La propiedad ms importante de una transformacin lineal T: V Wes que Testcompletamente determinada por su efecto sobre una base paraV . El siguiente ejemplodemuestra lo que esto signica:Ejemplo 1.7 Suponga queTes una transformacin lineal de R2a R2[X] tal queT_11_= 2 3X +X2yT_23_= 1 X2.HalleT_12_ yT_ab_.Solucin. Observe que=__11_,_12__ es una base. (Porqu?). Entonces_ab_= (3a 2b)_11_+ (b a)_23_,10 Transformaciones lineales y matricesde modo queT_ab_= T_(3a 2b)_11_+ (b a)_23__= (3a 2b)T_11_+ (b a)T_23_= (3a 2b)(2 3x +x2) + (b a)(1 x2)= (5a 3b) + (9a + 6b)X + (4a 3b)X2.La demostracin del teorema general es bastante directa (de hecho, el argumento seus en la prueba del Teorema 0.16):Teorema1.8 Seaf:VWunatransformacinlinealyseaS= v1, . . . , vnunconjunto generador paraV . Entoncesf(S) = f(v1), . . . , f(vn) genera a Imf.Demostracin Sea w Imf. Por denicin, existe v Vtal que f(v) = w. Dado queS genera aV , existen escalares1, . . . , n tales quev= 1v1 + +nvnAl aplicarfy usando su linealidad, obtenemosw = f(v) = f (1v1 + +nvn) = 1f(v1) + +nf(vn).Esto concluye la prueba.Ahora mostramos que las transformaciones lineales inyectivas conservan independen-cia lineal.Corolario 1.9 Sea f : V Wuna transformacinlineal inyectiva. Si S =v1, . . . , vk es un conjunto linealmente independiente enV , entoncesf (S) = f (v1) , . . . , f (vk)es un conjunto linealmente independiente enW.Demostracin Sean1, . . . , kescalares tales que1f (v1) + +kf (vk) = 0.Entonces, de la linealidad deftenemosf (1v1 + +fvk) = 0De aqu, 1v1 + +fvk ker f, y por la inyectividad de fse sigue que 1v1 + +fvk=0. Ya que v1, . . . , vk es un conjunto linealmente independiente, ci=0 paratodai. Por lo tanto,f (S) es linealmente independiente.Corolario1.10 SeadimV =dimW=n.Entoncesunatransformacinlineal in-yectivaf: V Wmapea una base paraVen una base paraW. En otras palabras, siS= v1, . . . , vn es una base paraV , entoncesf (S) = f (v1) , . . . , f (vn) es una baseparaW.1.2Isomorsmos y transformaciones inversas 11Demostracin Si S= v1, . . . , vneseslinealmenteindependienteenV ,porelCo-rolario 1.9,f (S)= f (v1) , . . . , f (vn) es linealmente independiente enW. Solo restaprobar quef (S) genera a W. Ya quefes inyectiva, entoncesfes suprayectiva y delTeorema 1.8 se sigue el resultado.1.2Isomorsmos y transformaciones inversasRecordemos la siguiente denicin de funciones en general:Denicin 1.11 Una funcinf: X Yes biyectiva(o una biyeccino una corres-pondecia uno-a-uno) si es inyectiva y suprayectiva.y el siguiente teorema:Proposicin1.12 Lafuncinf:X Y esunabiyeccinsiysolamentesiexisteuna funcin inversaY Xla cual es la nica funcinh : Y Xque satisfaceh f= IdX, f h = IdY.Si tal inversa existe es usual denotarla porf1: Y X, y entonces tenemosf1 f= IdX, f f1= IdY.EntoncesTeorema1.13 Let f : V Wunatransformacinlineal biyectiva. Entonceslafuncin inversaf1: W Ves una transformacin lineal.Demostracin Seank1, k2 K yw1, w2 W. Tenemos que mostrar quef1(k1w1 +k2w2) = k1f1(w1) +k2f1(w2).Los siguientes clculos hacen eso:f_f1(k1w1 +k2w2) k1f1(w1) k2f1(w2)_= f f1(k1w1 +k2w2) f_k1f1(w1) k2f1(w2)_= IdW(k1w1 +k2w2) f_k1f1(w1) k2f1(w2)_= (k1w1 +k2w2) _k1f f1(w1) k2f f1(w2)_= (k1w1 +k2w2) (k1IdW(w1) k2IdW(w2))= (k1w1 +k2w2) (k1w1 +k2w2)= 0.Dado quefes inyectiva esto signica quef1(k1w1 +k2w2) k1f1(w1) k2f1(w2) = 0.obteniendo la frmula deseada.Denicin 1.14 Una transformacin linealf: V Wla cual es una funcin biyec-tiva es llamado un isomorsmo deV aW, y decimos que los espacios vectoriales sonisomorfos.12 Transformaciones lineales y matricesNote que para un isomorsmof:VW, la inversaf1:W Ves tambin unisomorsmo.Teorema 1.15 Seaf: V Wuna transformacin lineal. Entoncesfes biyectiva siy solamente si kerf= 0 y rangof= dimV .Demostracin Se sigue del Teorema 1.3.Corolario1.16 Seaf : VWunatransformacinlineal conV yWespaciosvectoriales sobre K de dimensin nita. Entonces sifes una biyeccin, entonces dimKV= dimKW.Demostracin Se sigue del Corolario 1.5.Ejemplo1.17 Sea K un campo. Paran 1, considere el espacio vectorial Mn(K).Dena la funcin trazatr : Mn(K) K portr ([ai,j]) =n

r=1ar,r= a1,1 +a2,2 + +an,n.Muestra quetr es una transformacin lineal y halla bases para su kernel y su imagen.Solucin: Para[ai,j], [bi,j] Mn(K) yk1, k2 K tenemostr (k1[ai,j] +k2[bi,j]) = tr ([k1ai,j+k2bi,j])=n

r=1(k1ar,r +k2br,r)=n

r=1k1ar,r +n

r=1k2br,r= k1n

r=1ar,r +k2n

r=1br,r= k1tr ([ai,j]) +k2tr ([bi,j]) ,de aqu,tr es una transformacin lineal.Note que dimKMn(K) = n2y que la dimK K = 1. Tambin, parak K,tr___k 00.........0 00___ = k.Esto muestra que Imtr = K, i.e.,tr es suprayectiva e Imtr = K tiene como base 1.Por el Teorema del rango-nulidad,nulidadtr = dimK kertr = n21.Ahora las matrices Ers(r, s = 1, . . . , n1, r ,= s) y ErrE(r+1)(r+1)(r = 1, . . . , n1)viven en el kertr y son linealmente independientes. Ellas sonn(n 1) + (n 1) = (n + 1)(n 1) = n21.y de aqu, forman una base del kertr.1.2Isomorsmos y transformaciones inversas 13Ejercicio 1.18 Sea K un campo y seanm, n 1. Considere la funcin transpuesta()T: Mmn(K) Mnm(K)denida por[ai,j]T= [aj,i].Muestraque()Tesunatransformacinlineallacualesunisomorsmo.Culeslainversa?Ejercicio 1.19 Seanm, n 1. Considere la funcin Hermitiana conjugada(): Mmn(C) Mnm(C)denida por[ai,j]= [aj,i].Muestra que si Mmn(C) yMnm(C) son vistos como espacios vectoriales reales, en-tonces() es una transformacin lineal la cual es un isomorsmo.Ejercicio 1.20 Para todas las matrices complejasP Mlm(C) yQ Mmn(C),(PQ)= QP.Denicin 1.21 Una matriz complejaB Mn(C) es llamadaHermitiana siB= B,Anti-hermitiana siB= B.Trabajemos un poco con las bases y los vectores de coordenadas.Lema1.22 SeanVyWdos espacios vectoriales de dimensin nita sobre K, y seaS= v1, v2, . . . , vn una base paraV . Supongamos quef: V Wes una transforma-cin lineal. Entonces1.. si f(v1), f(v2), . . . , f(vn)sonlinealmenteindependientesenW,entoncesfesunainyeccin.2.. sif(v1), . . . , f(vn) genera aW, entoncesfes suprayectiva.3.. sif(v1), . . . , f(vn) forma una base paraW, entoncesfes biyectiva.Demostracin 1.. La ecuacinf (s1v1 + +snvn) = 0es equivalente as1f(v1) + +snf(vn) = 0yas, si losvectoresf(v1), . . . , f(vn)sonlineamenteindependentes, entoncesestaecuacin tiene solucin nicas1= =sn=0. Esto muestra que Kerf= 0 ypor el Teorema 1.2 tenemos quefes inyectiva.2.. Imf Wcontiene a cada vector de la formaf(t1v1 + +tnvn) = t1f(v1) + +tnf(vn)cont1, . . . , tn K. Si losvectores f(v1), . . . , f(vn)generanW, estomuestraqueW Imfy de aqufes suprayectiva.14 Transformaciones lineales y matrices3.. Se sigue al combinar(1..) y(2..)Recuerde queTeorema1.23 SeaS= v1, . . . , vnunabaseparael espaciovectorial V . SeaWunsegundoespaciovectorial yseaT = w1, . . . , wnunasucecindevectorsenW.Entonces existe una nica transformacin lineal f: V Wsatisfaciendof(vi) = wiparai = 1, . . . , n.Ejercicio 1.24 Demuestre de memoriael Teorema 1.23.Una til consecuencia de este resultado es el siguiente.Teorema1.25 Supongamosqueel espaciovectorial V esunasumadirectaV =V1 V2dedossubespaciosyseaf1: V1 Wyf2: V2 Wdostransformacioneslineales. Entonces existe una nica transformacin lineal f: V Wextendiendo f1, f2,es decir, satisfaciendof(u) = f1(u) siu V1;= f2(u) siu V2.Demostracin Usebasesde V1yV2paraformerunabasede V , ahoraapliqueelTeorema 1.23.Aqu otro resultado til.Teorema1.26 SeanV yWdosespaciosvectorialdedimensinnitesobre Kconn=dimKV ym=dimKW.SupongaqueS= v1, . . . , vnyT= w1, . . . , wmsonbasesparaV yWrespectivamente. Entoncesexisteunanicatransformacinlinealf: V Wcon las siguientes propiedades:1.. Sin m entoncesf(vj) = wjparaj= 1, . . . , n.2.. Sin > m entoncesf(vj) = wjcuandoj= 1, . . . , m yf(vj) = 0 sij> m.Ms an,fsatisface:3.. sin m entoncesfes inyectiva;4.. sin > m entoncesfes suprayectiva;5.. sim = n entoncesfes un isomorsmo.Demostracin 1.. Comenzamos con la sucesinw1, . . . , wn, podemos aplicar el Teore-ma 1.23 para mostrar que existe una nica transformacin lineal f: V Wcon laspropiedades establecidas.2.. Comenzamos con la sucesinw1, . . . , wm, 0, . . . , 0 de longitudn, podemos aplicar elTeorema 1.23 para mostrar que existe una nica transformacin lineal f:VWcon las propiedades establecidas.1.3La matriz de cambio de base 153.. , 4.., 5.. se sigue del Lema 1.22.El resultado siguiente provee una manera conveniente de decidir si dos espacios vec-torial son isomorfos: simplemente mostrando que ellos poseen la misma dimensin.Teorema 1.27 SeanVyWespacios vectorial de dimensin nita sobre el campo K.Entonces existe un isomorsmoV Wsi y slo si dimKV= dimKW.Demostracin Si existe un isomorsmof:VW, entonces dimKV = dimKWporel Corolario 1.16. Para el recproco, si dimKV= dimKWentonces por el Teorema 1.26(5..) existe un isomorsmoV W.1.3La matriz de cambio de baseDadasdosbasesdeunmismo K-espaciovectorial V dedimensinnita,cadaele-mento deVtiene asociados dos vectores de coordenadas (generalmente distintos), unoen cada una de las bases. Con la ayuda de cierta matriz, llamada de cambio de base, sepueden obtener las coordenadas de un vector con respecto a una base deVa partir delas coordenadas del vector en otra base.Ejemplo 1.28 Considere el espacio R2y las siguientes dos bases:=_u1=_12_, u2=_21__y=_v1=_10_, v2=_11__.Halle[x]dado que[x]=_13_.Solucin: Ya quex = u1 + 3u2, escribimosu1 yu2 en trminos dev1 yv2 y obtenemoslas coordenadas dex con respecto a:u1= 3v1 + 2v2,u2= 3v1 v2.De donde, haciendo las sustituciones y reduciendo los trminos comunes, tenemosx = u1 + 3u2= (3v1 + 2v2) + 3(3v1 v2) = 6v1 v2.Por lo tanto,[x]=_61_.Observemos los clculos hechos en el Ejemplo 1.28 desde una perspectiva diferente:Ya quex = u1 + 3u2 se tiene:[x]= [u1 + 3u2]= [u1]+ 3[u2]= ([u1], [u2])_13_16 Transformaciones lineales y matricesdonde ([u1], [u2]) es una matriz cuyas columnas estn formadas por los vectores [u1]y[u2], es decir,([u1], [u2]) =_3 32 1_.EstamatrizesllamadamatrizdecambiodebaseyenelTeorema1.30sedemuestraque siempre existe y que adems es invertible.Ejercicio 1.29 Considere el espacio R2[X] con las siguientes dos bases: = 1, X, X2y= 1 +X, X +X2, 1 +X2. Halla una matriz cambio de base.Teorema 1.30 Sea Vun K-espacio vectorial de dimensin n, y sean 1= v1, . . . , vny2= w1, . . . , wnbasesordenadasdeV .SeaAlamatrizdenncuyacolumnai-sima es el vector coordenada dewicon respecto a la base1.VKnKn[]1

[]2AEntoncesA es invertible, y para todov Vtenemos que[v]1= A[v]2.A la matrizA se le llama la matriz de cambio de base de2a1.Demostracin SeavunvectorarbitrarioenV . SeaX=(x1, . . . , xn)el vectordecoordenadas dev con respecto a la base ordenada2. Queremos demostrar queAXesel vector de coordenadas dev con respecto a la base1. Es un ejercicio mostrar que[v]1= [x1w1 +x2w2 + +xnwn]1= x1 [w1]1+x2 [w2]1+ +xn [wn]1.La ltima expresin es justamente el productoAXdesglosado por columnas.ProcedamosademostrarquelamatrizAesinvertible. Armamosqueel sistemahomogneoAX=0tieneunasolucinnica(latrivial).Enefecto,si Xessolucinde dicho sistema, el vectorvcuyo vector de coordenadas con respecto a la base2esXcumple que[v]1= AX= 0. Es un Ejercicio mostrar quev debe ser el vector cero,porloqueXtambinesel vectorcolumnacero. SesiguequelamatrizAdebeserinvertible.El Teorema1.30muestraquelamatrizAcumpleconlaspropiedadesdescritasalcomienzo de la seccin. Ahora, escribimos una denicin formal.Denicin 1.31 Sea Vun K -espacio vectorial de dimensin n, y sean 1= v1, . . . , vny2= w1, . . . , wn bases deV . Para cada1 j n,seanij K(1 i n) tales quevj=

ni=1ijwi. Sellamamatriz decambiodebasede 1a2, ysedenotaporC(1, 2) Knn, a la matriz denida por(C(1, 2))i,j= ijpara cada1 i, j n.1.3La matriz de cambio de base 17Ejemplo 1.32 Sea V= R3. Consideremos las bases 1= E= (1, 0, 0), (0, 1, 0), (0, 0, 1)y2= (1, 1, 1), (1, 1, 0), (1, 0, 0). Para construir la matrizC(1, 2) R33, comen-zamos por escribir los elementos de1como combinacin lineal de los de vectores de2:(1, 0, 0) = 0(1, 1, 1) + 0(1, 1, 0) + 1(1, 0, 0),(0, 1, 0) = 0(1, 1, 1) + 1(1, 1, 0) + (1)(1, 0, 0)(0, 0, 1) = 1(1, 1, 1) + (1)(1, 1, 0) + 0(1, 0, 0)Entonces, la matriz de cambio de base es:C(1, 2) =__0 0 10 1 11 1 0__Una pregunta que surge es la de la unicidad de la matriz de cambio de base: dadasdos bases1y2, la matrizC(1, 2) que hemos denido transforma coordenadas enla base1 en coordenadas en la base2. Existir alguna otra matriz en Knncon estamisma propiedad? El resultado que probamos a continuacin nos asegura que no.Proposicin1.33 SeanA, B Knn. Si Ax=Bxparatodox Kn, entoncesA = B.Demostracin Sea E= e1, . . . , en la base cannica de Kn. Por hiptesis, Aej= Bejpara cada1 j n. Pero(Aej)i=n

h=1Ai,h(ej)h= Ai,jy(Bej)i=n

h=1Bi,h(ej)h= Bi,jpara cada1 i n, de dondeAi,j= Bi,jpara todo1 i, j n. Luego,A = B.Del Teorema 1.30 y la Proposicin 1.33 se desprende:Observacin 1.34 Dadas dos bases1 y2 de un espacio vectorialVde dimensinn,lamatrizC(1, 2)eslanicamatrizen KnnquevericaC(1, 2)[x]1=[x]2para todox V . Esta observacin nos dice que si una matrizA vericaA[x]1= [x]2para todox V, entonces necesariamenteA = C(1, 2).Utilizando la Observacin 1.34, es fcil probar las igualdades que enunciamos a con-tinuacin.Corolario 1.35 SeaVun K-espacio vectorial de dimensin nita, y sean1, 2 y3bases deV . Entonces:V[]1.[]2

[]3

KnC(1,2)

C(1,3)

KnC(2,3)

Kn18 Transformaciones lineales y matricesC(1, 3) = C(2, 3)C(1, 2).V[]1.[]2

KnC(1,2)

KnC(2,1).C(2, 1) = C(1, 2)1.Ejercicio 1.36 Demostrar el Corolario 1.35.Para terminar, probaremos algunos resultados que relacionan matrices inversibles concambios de base.Proposicin1.37 SeaA GL(n, K). Existenbases 1, 2deKntalesque A=C(1, 2).Demostracin Supongamosque Ai,j=aijparacada1 i n, 1 jn. Sea2= E= e1, . . . , en, la base cannica de K , y sea 1=

ni=1ai1ei, . . . ,

ni=1ainei.Veamos que1 es una base de Kn, para lo cual basta ver que1 es un conjunto lineal-mente independiente (Porqu?). Supongamos que nj=1j (

ni=1aijei) = 0. Entonces0 =n

j=1_n

i=1jaijei_=n

i=1__n

j=1jaijei__=n

i=1__n

j=1jaij__ei,de donde nj=1jaij= 0 para cada1 i n, o equivalentemente,A___1...n___ = 0ComoAesinvertible,estoimplicaque1==n=0.Luego1eslinealmenteindependiente y, en consecuencia, una base de Knn.Es claro queC(1, E) = A.Proposicin 1.38 SeaA GL(n, K) y seauna base de Kn. Entonces:1.. Existe una base1de Kntal queA = C(1, ).2.. Existe una base2de Kntal queA = C(, 2).Demostracin 1.. Se prueba en forma anloga a la Proposicin 1.37, reemplazando labase cannicaE por la base dada.2.. Por la parte(1..), dadasA1 GL(n, K) y la basede Kn, existe una base2deKntal queA1= C(2, ). En consecuencia,A = C(2, )1= C(, 2).1.4La matriz asociada a una transformacin lineal 191.4La matriz asociada a una transformacin linealUno de los primeros ejemplos de transformaciones lineales que hemos visto son aqu-llas de la formaf: Kn Km, f(x)=Ax conA Kmn(cuando quede claro por elcontexto, suprimiremos el signo det, escribiendoAx en lugar de(Axt)t).En esta seccin veremos que toda transformacin lineal entre espacios vectoriales dedimensin nita puede representarse de esta manera. Para esto, utilizaremos de manerafundamental el hecho de que jada una base de un K-espacio vectorialVde dimensinnitan, se tiene un isomorsmo entreVy Kntomando coordenadas en dicha base.En esta seccin todos los espacios vectoriales considerados sern de dimensin nita.Si Vy Wson K-espacios vectoriales de dimensin n y m respectivamente, una trans-formacinlineal f : VWquedaunvocamentedeterminadaporlosnvectoresdeWque son los valores defen una base cualquiera deV(digamos) . Adems, jadauna base deW(digamos), estosn vectores quedan determinados por medio de susvectores de coordenadas en Km. El siguiente diagrama resume la situacin:Vf

[]

W[]

Kn[]1[]f[]1

KmSabemos que [] f []1es una transformacin lineal de Kna Kmpor lo tanto, debeserunatransformacinlineal del tipoTAparaalgunamatrizA. Pero, cual essta?Primero, observe que la matrizA que buscamos, debe tener la siguiente propiedad:A[v]= [f(v)]Ahora, si= v1, . . . , vn es una base paraV , entonces[vi]=________0...1...0________= ei.De modo que,[ei]1= vi.Por lo tanto,_[] f []1_(ei) = ([] f) (vi)= ([]) (f(vi))= [f(vi)].En resumen, tenemos el siguiente teorema:20 Transformaciones lineales y matricesTeorema1.39 SeanVyWdos espacios vectoriales de dimensin nita sobre K;ydos bases deV yWrespectivamente, con= v1, . . . , vn. Sif:V Wes unatransformacin lineal, entonces la matrizA demn denida porA = ([f(v1)], . . . , [f(vn)])satisfaceA[v]= [f(v)]para todav V .Demostracin Sea x Vy sea [x]= (x1, . . . , xn), es decir, x =

ni=1xivi. Para cada1 i n, seaCi lai-sima columna deA. Por denicin,Ci= [f(vi)]. EntoncesA[x]= x1C1 + +xnCn= x1[f(v1)]+ +xn[f(vn)]=_n

i=1xif(vi)_= [f(x)] .Del Teorema 1.39 tenemos la siguiente denicin:Denicin1.40 SeanV yWdos K-espaciosvectorialesdedimensinnita.Sean1= v1, . . . , vn una base deVy2= w1, . . . , wm una base deW. Seaf: V Wuna transformacin lineal. Supongamos quef(vj) =

i=1jwj(1 j n). Se llamamatriz defen las bases1, 2, y se denota[f]12, a la matriz en Kmndenida por([f]12)i,j= ijpara cada1 i m, 1 j n.Vf

[]1

W[]2

Kn[f]12

KmSif: V Vy1= 2= , denotaremos[f]= [f].Ejemplo 1.41 Seaf: R3R2, dada porf (x1, x2, x3) = (x1 + 2x2 x3, x1 + 3x2),y sean1 y2 las bases cannicas de R3y R2respectivamente. Se tiene quef(1, 0, 0) = (1, 1), f(0, 1, 0) = (2, 3), f(0, 0, 1) = (1, 0).Entonces[f]12=_1 2 11 3 0_.Observacin1.42 SiconsideramoslatransformacinlinealasociadaaunamatrizA Knm, fA: KmKndenida porfA(x) = Ax, entonces, a partir de la Denicin1.40, la matriz de fA en las bases cannicas E y E

de Kmy Knrespectivamente resultaser[fA]EE = A.1.5Matrices asociadas con suma y producto por escalar de transformaciones lineales 21Observacin1.43 SeaV unK-espaciovectorial dedimensinn, ysean1y2bases deV . Entonces[idV ]12=C(1, 2), la matriz de cambio de base de1a2.(ver Denicin 1.31). Mediante el uso de las matrices introducidas en la Denicin 1.40y de vectores de coordenadas, toda transformacin lineal puede representarse como lamultiplicacin por una matriz ja.1.5Matrices asociadas con suma y producto por escalar detransformaciones linealesRecuerde que HomK(V, W)= f:VW [fes una transformacin lineal es unespacio vectorial sobre K.El siguiente resultado nos d luz sobre el comportamiento de las matrices asociadascuando consideramos elementos de HomK y su estructura algebraica.Proposicin1.44 SeanV yWdos K-espacios vectoriales de dimensin nita, condimV =n y dimW=m. Seany

bases deV yWrespectivamente. Seanf, g HomK(V, W). Entonces:1.. [f+g] = [f]+ [g] .2.. [f] = [f] para K.Demostracin 1.. Observemos que laj-sima columna de la matriz[f+g] es:[(f+g)(vj)] = [f(vj) +g(vj)] = [f(vj)]+ [g(vj)] ,esdecir, lasumadelasj-simascolumnasde[f] y[g] . Luego[f+ g] =[f]+ [g] .2.. Es completamente anlogo a (1..).Ejercicio 1.45 Concluye la prueba de la Proposicin 1.44.1.6Matriz asociada a la composicin de transformacioneslinealesLa composicin de dos transformaciones lineales se traduce como la multiplicacin desus matrices.Proposicin1.46 SeanV, WyUtresK-espaciosvectorialesdedimensinnita.Sean1, 2y3basesdeV, WyUrespectivamente.Seanf:VWyg:W U22 Transformaciones lineales y matricestransformaciones lineales.Vgf

f

[]1

Wg

[]2

U[]3

Kn[gf]12

[f]12

Km[g]23

KrEntonces[g f]13= [g]23[f]12.Demostracin Seann =dimV,m =dimWyr=dimU. Entonces[g]23 Krmy[f]12 Kmn, con lo que[g]23[f]12 Krn. Adems[g f]13 Krn. As queambas matrices son del mismo tamao. Para cadax Vse tiene que[g]23[f]12[x]1= [g]23[f(x)]2= [g (f(x))]3= [(g f)(x)]3= [g f]13[x]1Luego,[g]23[f]12= [g f]13(Porque?).Corolario1.47 SeanV yWdos K-espacios vectoriales de dimensin nita, y sean1y2bases deVyWrespectivamente. Seaf: V Wun isomorsmo.Vf

[]1

W[]2

f1

Kn[f]12

Km[f]112Entonces[f1]21= ([f]12)1.Ejercicio 1.48 Demuestra el Corolario 1.47.1.7El isomorsmo entre el espacio vectorial de las matrices y elespacio vectorial de las transformaciones linealesFijadosdosK-espaciosvectorialesV yW, tienesentidoconsiderarel conjuntodetodas las transformaciones lineales deV enW. En el caso en que ambosV yWsonK-espacios vectoriales de dimensin nita, dimV =n y dimW=m, este K-espaciovectorial resulta ser isomorfo a Knm.1.8Equivalencia y semejanza entre matrices asociadas a la misma transformacin lineal 23Proposicin1.49 SeanV yWdos K-espacios vectoriales de dimensin nita, condimV =n y dimW=m. Seany

bases deV yWrespectivamente. Entonces lafuncinT: HomK(V, W) Kmndenida porT(f) = [f] es un isomorsmo.Demostracin Supongamos queB= v1, . . . , vn y

= w1, . . . , wm. Observe quela Proposicin 1.44 nos dice queTes una transformacin lineal (Porqu?).ParamostrarqueTesunisomorsmo,seaf HomK(V, W)talqueT(f)=0,esdecir, [f] =0.Entonces,Im(f)= 0,dedondef =0,locualnosdicequeTesinyectiva. Ahora, seaA Kmn. ConsideramosfA:VWdenida por[fA(x)]=_A[x]t_tpara cadax V . Se tiene quefA HomK(V, W) yT(fA) = [fA] = A yTes sobre. Ahora se sigue el resultado.Se sigue de la Proposicin 1.49 que:Corolario1.50 SeanV yWdosK-espaciosvectorialesdedimensinnita, condimKV= n y dimKW= m. Entonces, dimK (HomK(V, W)) = mn.Ejercicio 1.51 Demostrar el Corolario 1.50.1.8Equivalencia y semejanza entre matrices asociadas a lamisma transformacin linealEn esta seccin estudiamos la relacin que hay entre las matrices que representan auna misma transformacin lineal.Denamos enKmnunarelacindeequivalencia denominadaequivalenciadematrices. Decimosque AesequivalenteaB, denotadoA B, si existenmatricesinvertiblesPyQ demm yn n, respectivamente, tales que:A = PBQ.Ejercicio 1.52 Demostrar que es una relacin de equivalencia.SedenotaporKmn/ el conjuntodetodaslasclasesdeequivalenciabajoestarelacin.Conclumos esta seccin mostrando cmo se puede obtener a partir de la matriz de unatransformacin lineal f: V Wen un par de bases 1 y 2 de Vy Wrespectivamente,la matriz de la misma transformacin lineal en cualquier otro par de bases

1y

2dedichos espacios.Proposicin 1.53 SeanVyWdos K-espacios vectoriales de dimensin nita. Sean1,

1bases deVy2,

2bases deW.VC(

1,1)

[f]

1

2

WVf

[]

1[]1

W[]

2[]2

V[f]12

WC(2,

2)24 Transformaciones lineales y matricesEntonces[f]

1

2= C(2,

2)[f]12C(

1, 1).Demostracin Se tiene quef= idW f idV . Aplicando dos veces el resultado dadoen la Proposicin 1.46 y el hecho que la matriz de la transformacin lineal identidad enun par de bases coincide con la matriz de cambio de base entre las mismas, se obtiene[f]

1

2= [idW f idV ]

1

2= [idW f]1

2[idV ]

11= [idW]2

2[f]12[idV ]

11= C(2,

2)[f]12C(

1, 1).que es lo que se quera probar.Observe que la Proposicin 1.53 nos dice que[f]

1

2 [f]12Ejercicios1.1 Responda las siguientes preguntas y justique su respuesta.a). Existir algn monomorsmof: R3R2?b). Existir algn epimorsmof: R2R3?1.2 Sea K un campo y seaT: K Knuna funcin lineal. Demuestre queT= 0 oTes inyectiva.1.3 La transformacin linealf: C4C3dada por:f____x1x2x3x4____=__2x1 +x2 +x3x1 + 3x2 +x3 x43x1 +x2 + 2x3 2x4__no es inyectiva. Hallex, y C4tales quef(x) = f(y) conx ,= y.1.4 La transformacin linealf: C4C3dada por:g____x1x2x3x4____=__2x1 +x2 + 3x3 4x4x1 + 3x2 + 4x3 + 3x4x1 + 2x2 +x3 + 7x4__no es suprayectiva. Hallew C3tal que no existeu C4tal queg(u) = w.1.5 SeaT: R2[X] R4[X] dada porT(p(X))=X2p(X). Halla una base de ImT.EsTsuprayectiva?1.6 Sea f: V Wuna transformacin lineal entre dos espacios vectoriales de dimen-sin nita.a). Demuestre que si dimV< dimW, entoncesfno puede ser suprayectiva.b). Demuestre que si dimV> dimW, entoncesfno puede ser inyectiva.1.7 SeaVun K-espacio vectorial y seaf: V Vuna transformacin lineal. Se dicequefes nilpotente si s N tal quefs= 0.Ejercicios 25a). Probar que si f es nilpotente, entonces f no es ni monomorsmo ni epimorsmo.b). Si V es de dimensinn probar quefes nilpotente si y solamente si fn=0.(Sugerencia: considerar si las inclusiones Ker(fi) Ker(fi+1) son estrictas ono).c). Sea = v1, . . . vn una base de V . Se dene la transformacin lineal f: V Vde la siguiente forma:f(vi) =_vi+1si1 i n 10 sii = nProbar quefn= 0 yfn1,= 0.d). SiV= Rn, para cadai,2 i n, construir una transformacin lineal nilpo-tentef: RnRntal quefi= 0 yfi1= 0.1.8 Para cadaTi: R2R2, diga si es o no un isomorsmo:a). T1(x, y) = (x, 0).b). T2(x, y) = (0, y).c). T3(x, y) = (y, 0).d). T4(x, y) = (y, x).1.9 Determinasilossiguientesenunciadossonverdaderoofalso.(Justiquesures-puesta exhibiendo una prueba o dando un contraejemplo.)a). SeanT, F: VWtransformacioneslineales. Si T+ Fesunisomorsmo,entoncesTyFson isomorsmos.b). Sea T: V Wuna transformacin lineal, y sea a un escalar no nulo. Si aTesun isomorsmo, entoncesTes un isomorsmo.c). SeanT: VWyF: W Ztransformaciones lineales. Si la composicinF Tes un isomorsmo, entoncesTyUson isomorsmos.d). SeanT : VWyF : WZfunciones. Si lacomposicinF Tesunisomorsmo, yTes un isomorsmo, entoncesFes un isomorsmo.e). SeanT : VWyF : WZfunciones. Si lacomposicinF Tesunisomorsmo, yFes un isomorsmo, entoncesTes un isomorsmo.1.10 Suponga queUyVson espacios isomorfos. Demuestra que existen innitos iso-morsmos entreUyV .1.11 Determine si la transformacin linealS: R3[X] M22(R) dada porS(a +bX +cX2+dX3) =_a + 4b +c + 2d 4a b + 6c da + 5b 2c + 2d a + 2c + 5d_es:a). inyectiva.b). suprayectiva.c). biyectiva.1.12 Muestre que HomK (V, W) es isomorfo a HomK_KdimV, KdimW_. Puedes dar elisomorsmo de manera explcita?1.13 Halla lo siguiente:a). HomK(0 , W) dondeWes cualquier espacio vectorial de dimensin nita.b). HomK (V, 0) dondeVes cualquier espacio vectorial de dimensin nita.26 Transformaciones lineales y matrices1.14 SeaT: R2R2la funcin lineal dada porT_xy_=_ yx_. Demuestre quela transformacin linealT c1R2es un isomorsmo para todo nmero realc.1.15 SeanP=_2 17 4_ yla base cannica de R2. Halle una base

de R2detal manera quePsea la matriz cambio de base de la base a la base

.1.16 SeaT : R22R22el operadorlineal dadopor T (A) =BA AB, dondeB=_1 11 1_. Determine[T], donde es la base cannica de R22.1.17 Sean=__11_,_11__ y

= 1, 1 +t bases de R2y R[t]2, respectiva-mente. SeaT: R2R[t]2 una funcin lineal tal que[T]

=_3 42 3_.a). Determine una funcin linealF: R[t]2 R2tal que[F]

=_3 42 3_1.b). Verique queFes la inversa de la funcinT.1.18 Sean1= v1, v2, v3unabasede R3y2= w1, w2, w3, w4unabasede R4.Seaf: R3R4la transformacin lineal tal que[f]12=____1 2 11 1 12 1 43 2 5____.a). Hallarf(3v1 + 2v2 v3). Cules son sus coordenadas en la base2?b). Hallar una base de ker(f) y una base de Im(f).c). Describir el conjuntof1(w1 3w3 w4).1.19a). Sea tr : HomK(V, V ) K el mapeo denido por tr(f) = tr_[f]_. Probar quetr(f) no depende de la base elegida. A tr(f) se llama la traza def.b). Probar que tr : HomK(V, V ) K es una transformacin lineal.1.20 Sean= v1, v2, v3, U= v1 +v3, v1 + 2v2 +v3, v2 +v3yU

= w1, w2, w3bases deR3, yseaElabasecannicadeR3, es decir, E= e1, e2, e3. Seaf: R3R3la transformacin lineal tal que[f]E=__1 1 32 1 13 2 1__y[f]UU

=__1 1 00 1 10 0 1__.DeterminarU

.Denicin 1.54 Sean A y B dos matrices de nn con entradas en un campo K.Decimos queA yB son semejantes (o conjugadas) si existe una matriz invertiblePtal queB= PAP1.1.21 SeanK= RyV elespaciovectorialdelospolinomiosen Rdegradomenoroiguala3.SeaT: VV dadaporT(p(x))=p

(x)(laderivadadelpolinomiop (x)). Demuestre que _1, x, x2, x3_ forman una base deV , y calcule la matriz deTcon respecto a esta base.Ejercicios 271.22 SeaT: R2 R2dada porT (x, y)=(2x, 3x 7y). Seanla base cannica deR2, yla base (1, 1) , (2, 0) . Calcule[T]y[T]. Encuentre una matrizA talqueA1[T] A =[T].1.23 Demuestre que la relacin ser semejantes es una relacin de equivalencia en elconjunto de matrices den n con entradas en un campo K.Denicin 1.55 Sea Vun K-espacio vectorial. Un funcional lineal en Ves unatransformacin lineal de Ven el campo K. El espacio dual de V , denotado V, esel conjunto de todos los funcionales lineales enV .Ejemplo 1.56 SeaV= R2. Un funcional lineal enVes la funcinT: R2Rdada porT (x, y) = 2x 5y.Denicin1.57 SeaV un K-espacio vectorial de dimensin nita, y sea=v1, . . . , vnunabase de V . Labase dual de , denotada , es lasucesin1, . . . , n dondeies el funcional lineal enVdado pori(1v1 + +vn) = i.Ejemplo1.58 SeaV = R2,ysealabasecannica.Entonces1 (x, y)=xy2 (x, y) = y.1.24 SeaV= R2, y seaEla base cannica. SeaT (x, y) = 5x 6y. Escriba aTcomocombinacin lineal de la base dual deE.1.25 Sea Vun K-espacio vectorial de dimensin nita, y sea = v1, . . . , vn una basedeV . Entonces la base dual de es una base deV.1.26 SeaV un K-espacio vectorial de dimensin nita. El dobledual deV , denotadoV, es el dual deV.a). Para cadav V , seaev: V Kdada porev (T)=T (v). Demuestre queev V.b). SeaE: VVdada porE(v)=ev. Demuestre queEes un isomorsmo,llamado el isomorsmo natural entreVy su doble dual.2Teoria EspectralUna matrizA Knnse dice diagonalizable si existe una matrizC GL(n, K) talqueCAC1es una matriz diagonal.En otras palabras, una matriz diagonalizable es una matriz que es semejante a unamatriz diagonal. La nocin correspondiente para transformaciones lineales es la siguien-te:Denicin2.1 SeaVun K-espacio vectorial de dimensin nita, y seaf:VVuna transformacin lineal. Se dice quefes diagonalizable o diagonal si existe una base deVtal que[f]es diagonal.Teniendoencuentaquelasemejanzadematricesesunarelacindeequivalenciadeducimos que: SeaVun K-espacio vectorial de dimensin nita y seaf: V Vunatransformacinlineal.Entoncesfesdiagonalizablesiyslosi [f]esdiagonalizablepara toda base deV .En esta seccin consideramos el problema de determinar si una matriz es semejantea una matriz diagonal. Y ms generalmente, determinar si una transformacin lineal esdiagonalizable o no.2.1Polinomios de matrices y de operadores linealesEjemplo 2.2 Si A Mn(R) y P(x) = 3x2+5x+ 7, entonces P(A) se dene como3A2+ 5A+ + 7In.Denicin2.3 SeaA Mn(Kn)unamatrizcuadradayseaPunpolinomioconcoecientes pertenecientes a K:P(x) =d

k=0ckxk= c0 +c1x +c2x2+ +cdxdconc0, c1, c2, . . . , cd K. EntoncesP(A) es la matriz denida mediante la frmula:P(A) =d

k=0ckAk= c0In +c1A+c2A2+ +cdAdLos polinomios de matrices hacen un gran papel en la teora espectral de transfor-macioneslinealesodeoperadoreslineales. Enparticular, polinomiosdematricesse2.2Valores propios y vectores propios 29puedenusarparacalcularlafuncinexponencial exp(A)deunamatrizcuadradaA,que es importante para ecuaciones diferenciales.Ejemplo 2.4 SeanP(x) = x27x + 10, yA =_3 17 0_.Calculemos la matrizP(A) en tres maneras diferentes.1.. A27A+ 10I,2.. (A7I)A+ 10I,3.. (A2I)(A5I).Solucin:P(A) =_9 428 3_.Ejercicio 2.5 SeanP(x) = x28x + 12 yA =__3 5 71 4 83 1 2__HalleP(A).2.2Valores propios y vectores propios2.2.1Otra aproximacin: puntos jos y dilatacin de vectoresSea K un campo yA Knnuna matrix cuadrada. Sabemos sue exist una transfor-macin lineal asocial a la matrixA, denotada porfA: FnFndada porfA(x) = Ax.De manera natural, podemos preguntarnos cuales vectores son jados porfA, es decir,cuales vectores satisfacen la ecuacinfA(x) = x.Por supuesto, 0 siempre es jado as que podemos hacernos la misma pregunta conel requerimiento extra de que x sea distinto de cero. Usualmente, no hay tales vectores,perounasituacinligeramentemgeneralpuedeocurrirsi Adilataalgunosvectoresdistintos de cero, es decir,fA(x) = x para alguna K. Esto es lo mismo que pedirquefA envie todos los vectores en alguna linea atravs del origen atravs de esa linea.Por supuesto, tal linea es un subespecie1-dimensional de Kn.Ejemplo 2.6 Sea K = R y considere la matriz de2 2A =_2 10 3_.1.. Muestra que la transformacin linealfA: R2 R2no ja cualquier vector distintode cero.2.. Muestra queA dilata todos los vectores del ejex por un factor2.3.. Halla todos los vectores no cero los cuales dilatafA por un factor3.Solucin.30 Teoria Espectral1.. Suponga sue un vectorx R2sarisface queAx=x, entonces tambin satisface laecuacin homognea(I2 A)x = 0, es decir,_2 10 3_x = 0.Pero la nica solucin de esto esx = 0.2.. Tenemos_2 10 3__x0_=_2x0_= 2_x0_,as que los vectores del ejex son dilatados bajofA por un factor2.3.. Suponga queAx = 3x, entonces(3I2 A)x = 0, es decir,_1 10 0_x = 0.El conjunto de todas las soluciones de esto es la lineaL = (t, t) [ t R.2.2.2Algunos hechos utiles sobre raices de polinomiosRecuerde sue cada polinomio sobre los complejos (sue contienen a los reales)p(t) C[t] de grado positivon admite una factorizacin en polinomios linealesp(t) = c(t 1)(t n),donde c ,= 0 y las races k son nicos salvo el orden en el cual aparecen. Es til escribirc(t 1)r1 (t m)rm,donde 1, . . . , m son las races complejas distintas de p(t). Entonces rk 1 es llamadala multiplicidad algebraica de las rak. Esta factorizacin es inca salvo el orden enel cual aparecen las raices.Cuandop(t) es un polinomio real, es decir, p(t) R[t], las raices complejas son dedos tipos: races reales y races no reales las cuales aparecen en parejas de conjugados.De aqu, para tal polinomio real tenemosp(t) = c(t 1)(t r)(t 1)(t 1)(t s)(t s),donde1, . . . , rson las races reales (posiblemente con repeticin) y1, 1, . . . , s, sson las races no reales las cuales ocurren en parejas de complejos conjugados. Para unnmero complejo no real,(t )(t ) = t2( + )t + = t2(2 Re)t+ [ [2,donde Re es la parte real de y [ [ es el mdulo de.Proposicin2.7 Seap(t)=tn+ an1tn1++ a1t + a0 C[t]esunpolinomiomnico complejo el cual se factoriza completamente comop(t) = (t 1)(t 2)(t n),2.2Valores propios y vectores propios 31donde 1, . . . , nsonraces complejas, ocurriendoconmultiplicidad. Las siguientesfrmulas se aplican para la suma y el producto de esas races:n

i=1i= 1 + +n= an1,n

i=1i= 1 n= (1)na0.Ejemplo2.8 Seap(t)unpolinomiocomplejodegrad3.Supongaquep(t)=t36t2+at 6, dondea C, y tambin que1 es una raz dep(t). Halla las otras races dep(t).Solucin. Supongamos que las otras races son y. Entonces por la Proposicin 2.7, + + 1 = (6), es decir,= 5 ;tambin,(1)()() = (1)3(6), es decir,= 6.De aqu encontramos que(5 ) = 6, es decir,25 + 6 = 0.Lasracesdeestepolinomioson2, 3, dedondeobtenemosquelasracesdep(t)son1, 2, 3.2.2.3Deniciones bsicasSeaV un K-espacio vectorial de dimensinn y seaf:VV una transformacinlineal diagonalizable. Luego, existeunabase = v1, . . . , vnde V tal que [f]esdiagonal:[f]=______1000 2

............00 0 0 n______Entonces, para cada1 i n,f(vi) = ivi.Recprocamente, si para una base= v1, . . . , vn deVy1, . . . , n K se cumplequef(vi) = ivipara cada1 i n, la matriz[f]es diagonal y, en consecuencia,fes diagonalizable.Esto nos lleva a la siguiente denicin:Denicin2.9 SeaVun K-espacio vectorial, y seaf:VVuna transformacinlineal. Se dice que v V , v ,= 0, es un autovector de f si existe K tal que f(v) = v.El elemento Kse llama un autovalor def.Ejercicio2.10 SeaV un K-espacio vectorial, y seaf:VV una transformacinlineal y sea un autovalor de f. Entonces el subespacio ker (I f) se llama subespaciopropio correspondiente al autovalor . Muestre que ste, efectivamente es un subespaciodeV .32 Teoria EspectralDenicin2.11 SeaVun K-espacio vectorial de dimensin nita, y seaf: V Vunatransformacinlineal. El espectrodef denotadoporSpec(f)sedenecomoelconjunto de todos los Ktales queI fno es invertible:Spec(f) := K [ I fno es invertible.Observe que Spec(f) coincide con el conjunto de los valores propios def.Usando estas deniciones, el razonamiento anterior se puede reescribir de esta forma:Proposicin2.12 SeaV un K-espaciovectorial dedimensinnyseaf : VVunatransformacinlineal. Entonces f esdiagonalizablesi ysolamentesi existeunabasedeVformada por autovectores def.Lamismasnocionessepuedendenirparamatrices:DadaA Knn,selepuedeasociarunatransformacinlineal fA: KnKndenidapor fA(x) =Ax. Noteseque[fA]E=A, dondeEeslabasecannicade Kn. Entoncesv Kn, v ,=0, esunautovector defA de autovalor si y solamente siAv= v.Denicin 2.13 SeaA Knn. Se dice quev Kn, v ,= 0, es un autovector deA siexiste K tal queAv=v. El elemento K que verica la condicin anterior sellama un autovalor deA.Podemos dar tambin un resultado anlogo a la Proposicin 2.12 para matrices:Proposicin2.14 SeaA Knn. EntoncesAesdiagonalizablesi ysolamentesiexiste una basede Knformada por autovectores deA.Ejemplo 2.15 Decidir siA =_2 32 1_ es diagonalizable.Solucin. En virtud de la proposicin 2.14, basta buscar los autovectores de A, es decir,los vectores x = (x1, x2) R2tales que (x1, x2) ,= (0, 0) y A_x1x2_=_x1x2_para algn R. Para esto, buscaremos en primer trmino los elementos R para los cuales elsistemaAx = x tiene solucin no trivial (autovalores deA) y despus, para cada unode los valores hallados, los vectores(x1, x2) R2que son soluciones del sistema linealcorrespondiente. Observemos queAx = x (I2 A)x = 0 _ 2 32 1__x1x2_=_00_Este sistema homogneo tiene solucin no trivial si y solamente si el determinante desu matriz asociada es0, o sea, si y solamente si23 4 = 0. Luego, los autovaloresdeA son = 1 y = 4.Busquemos ahora los autovectores correspondientes a cada autovalor: Para= 1,queda el sistema_3 32 2__x1x2_=_00_cuyo conjunto de soluciones es (1, 1). Luego el conjunto de los autovectores asociados2.3Polinomio caracterstico 33a = 1 es (1, 1) (0, 0). Para = 4, el sistema es_2 32 3__x1x2_=_00_cuyo conjunto de soluciones es (3, 2). Luego el conjunto de los autovectores asociadosa=4es (3, 2) (0, 0). Enconsecuencia, Aesdiagonalizable, puestoque=(1, 1), (3, 2)esunabasede R2formadaporautovectoresdeA. Msan,si C=C(E, ) se tiene queCAC1=_1 00 4_Ejercicio 2.16 Decidir siA =__3 0 01 3 00 0 3__ es diagonalizable en R33.2.3Polinomio caractersticoComovimosenlaseccinanterior, unmtodoparadeterminarsi unamatrizesdiagonalizableconsisteenbuscarsusautovaloresyluegoversi sepuedearmarunabase de autovectores.SeaA Knny sea K. Se tiene que: es un autovalor deA x Kn0 tal queAx = x.El sistemaAx = x tiene solucin no trivial.El sistema(In A)x = 0 tiene solucin no trivial. det(In A) = 0.Denicin 2.17 SeaA Knn. Se llama polinomio caracterstico deA, y se denotaA, al polinomioA= det(XIn A) K[X].SiA Knn,A resulta ser un polinomio mnico (Un polinomio mnico tiene comosucoecienteliderel 1,esdecir,elcoecientedelmonomiodegradomayores1)degradon (notemos que en la matrizXInA, slo aparecen vecesXy que el signo deltrmino(X a11)(X ann) en el determinante es1). Por lo anterior, tenemos:Proposicin2.18 SeaA Knnysea K.EntoncesesautovalordeAsiyslo si es raz del polinomio caracterstico deA.Ejemplo 2.19 Decidir siA =_0 11 0_ es diagonalizable en Q22, R22y C22.Solucin. Los autovalores deA son las races del polinomio:A= det_X 11 X_= X2+ 1.Como este polinomio no tiene races en Q ni en R, resulta queA no es diagonalizableenQ22ni enR22. ConsideradacomomatrizenC22, losautovaloresdeAsoniy i, ylosautovectoresasociadosson (1, i) (0, 0)y (1, i) (0, 0). Como34 Teoria Espectral= (1, i), (1, i) es una base de C2formada por autovectores deA, entoncesA esdiagonalizable en C22.Queremos denir el polinomio caracterstico asociado a un endomorsmo de un espa-cio vectorial de dimensin nita. Para eso, veremos que dos matrices semejantes tienenel mismo polinomio caracterstico.Proposicin 2.20 SeaA Knny seaC GL(n, K). EntoncesCAC1= A.Demostracin Se tiene queCAC1=det(XIn CAC1)=det(CXIn.C1CAC1)=det(C(XIn A)C1)=det(XIn A)= A.Denicin2.21 SeaVun K-espacio vectorial de dimensin nita, y seaf: V Vuna transformacin lineal. Se dene el polinomio caracterstico defcomof=[f],donde es una base cualquiera deV .Como en el caso de matrices, se tiene que: Sea Vun K-espacio vectorial de dimensinnita. Seaf:V Vuna transformacin lineal y sea K. Entonces es autovalordefsi y slo si es raz def.Ejercicio 2.22 Calcule los autovalores de las matricesA yB= ATA, dondeA =_ _Ejercicio 2.23 Sea A Rnnuna matriz de probabilidad, esto es, Ai,j 0 para todosi, j 1, . . . , n y la suma de las entradas de cada columna es1. Demuestre que1 esun autovalor deA.SUGERENCIA: Adivina un autovector deA.Ejercicio 2.24 SeaA Knn. Demuestre queAT = A.Ejercicio 2.25 SeaA Knn. Demuestre que Spec(AT) = Spec(A).Ejercicio2.26 SeanA, B KnntalesqueIn ABesinvertible.DemuestrequeIn BA tambin es invertible, y(In BA)1= I +B(I AB)1A.Ejercicio 2.27 SeanA, B Knn. Demuestre que Spec(AB) = Spec(BA).SUGERENCIA: Considerar por separado los casos=0 y ,=0. En el caso ,==0usar el resultado del ejercicio anterior sobre la invertibilidad deIn AB yIn BA.2.4Una caracterizacin de matrices diagonalizables 352.4Una caracterizacin de matrices diagonalizables2.4.1Suma directa de subespaciosParaloquesigue, vamosanecesitargeneralizarlanocindesumadirectadedossubespacios de un K-espacio vectorial al caso de cualquier cantidad nita de subespacios.Denicin2.28 SeaV un K-espacio vectorial y seanS1, S2, . . . , Srsubespacios deV . Se dene la suma deS1, S2, . . . , SrcomoW= S1 +S2 + +Sr= s1 + +sr [ si Si, 1 i r.Ejercicio 2.29 Con la notacin de la Dencin 2.28, demuestra queWes un subes-pacio deV.Denicin 2.30 Sea Vun K-espacio vectorial y sean S1, S2, . . . , Sr subespacios de V .Se dice que S1, S2, . . . , Sr estn en suma directa si, para cada w W= S1+S2++Srexisten nicossi Si,1 i r, tales quew= s1 + + sr. En este caso se dice queWes la suma directa de los subespaciosS1, S2, . . . , Sr, y se denota como:W= S1 S2 Sr=r

i=1Si.Vamos a dar una denicin equivalente de la suma directa de varios subespacios:Proposicin 2.31 SeaVun K-espacio vectorial y seanS1, S2, . . . , Srsubespacios deV . Son equivalentes:1.. W=

ri=1Si2.. W= S1 +S2 + +Sry para cada1 j r, se tiene queSj (S1 + +Sj1 +Sj+1 +Sr) = 0.Demostracin (1..) (2..) Sea 1 j r. Sea x Sj(S1++Sj1+Sj+1+Sr).Entoncesx = 0 + + 0 +x + 0 + + 0,x = s1 + +sj1 + 0 +sj+1 + +sr.Por la unicidad de la escritura en la suma directa, se sigue quex = 0.(2..) (1..)Porhiptesis, existens1, . . . , srconsi Sipara1 i rtalesquew=

ri=1si. Supongamosque w=

ri=1si=

ri=1s

iconsi, s

iSiparacada1 i r. Entonces, para cada1 j r, se tiene quesj s

j=r

i=1i=j(s

i si).Como sjs

j Sj y ri=1i=j(s

isi) es una suma donde cada s

isi Si, de la hiptesisse deduce quesj s

j= 0. Luego,sj= s

j.Como en la suma directa de dos subespacios, en este caso tambin es posible obteneruna base del espacio suma uniendo bases de cada uno de los sumandos.36 Teoria EspectralProposicin 2.32 SeaVun K-espacio vectorial y seanS1, S2, . . . , Srsubespacios deV . Para cada1 i r, seaiuna base deSi. Son equivalentes:1.. W=

ri=1Si2.. = 1 2 res una base deW.2.4.2El complemento de SchurCon frecuencia es conveniente considerar que una matriz est compuesta de algunassubmatrices ms pequenias. Al introducir rectas verticales y horizontales en una matriz,se le puede partir en bloques. Hay una forma natural de partir matrices, en particularaquellas que surgen en ciertas aplicaciones. Por ejemplo, considere la matriz:______1 0 0 2 10 1 0 1 30 0 1 4 00 0 0 1 70 0 0 7 2______Parece natural partirA como_______1 0 0 2 10 1 0 1 30 0 1 4 00 0 0 1 70 0 0 7 2_______=_I3B02,3C_dondeI3es la matriz identidad de33, Bes una matriz de32, 02,3es la matrizcero de23 yCes una matriz de22. De esta forma, podemos ver aA como unamatriz de2 2 cuyas entradas son ellas mismas matrices.Cuando se multiplican matrices, con frecuencia, se gana una ventaja al verlas comomatrices participadas. Esto frecuentemente no slo revela las estructuras subyacentes,sino que usualmente acelera los clculos, en especial cuando las matrices son grandes ytienen muchos bloques de ceros. Es evidente que la multiplicacin de matrices partici-padas es igual que la multiplicacin ordinaria de matrices. Para vericar esto, comienceconsiderando algunos casos de matrices participadas. Cada una da origen a una formadiferente de ver el producto de dos matrices.Para el caso del clculo de determinantes, en la situacin general, no tenemos muchaganancia si particionamos la matriz. De hecho, en general, podramos pensar que siA =_P QR S_dondeP, Q, R, S son todas cuadradas, entoncesdetA = ( detP)( detS) ( detQ)( detS).Sinembargo, tenemosalgunosresultadosparticularessi Asepuedeparticionary2.4Una caracterizacin de matrices diagonalizables 37dejarla en su forma forma triangular (superior) en bloques. Esto es,A =_P Q0 S_dondePyQ son matrices cuadradas. La determinante satisface:Proposicin 2.33 SiA est en su forma triangular (superior) en bloques, es decir,A =_P Q0 S_.EntoncesdetA = ( detP)( detS).Como dijimos antes, resultados generales que involucren el clculo de la determinan-tedematricesparticipadasnoexisten. Sinembargo, el complementodeSchur nospermite hallar un resultado casi general:Teorema 2.34 SiA es una matriz particionada de la formaA =_P QR S_dondeP, Q, R, Sson todas matrices cuadradas yPes inversible. Entonces:detA = ( detP)( detS RP1Q).La matrizS RP1Q se llama el complemento de Schur dePenA.2.4.3Espacios de autovectores y diagonalizacinDadounautovalordeunamatrizA Knn,elconjuntodelosautovectoresdeautovalor no es un subespacio de Kn, puesto que, por denicin, 0 no es un autovectordeA. Sin embargo, podemos considerar el siguiente subespacio que consiste en agregarel vector0 a ese conjunto:Denicin 2.35 SeaA Knny sea un autovalor deA. Se deneE= v Kn[ Av= v = v Kn[ (In A)v= 0.Observamos queE es un subespacio de Kn, puesto que es el conjunto de solucionesde un sistema lineal homogneo.Proposicin2.36 SeaA Knny sean1, , rautovalores distintos deA. En-toncesE1, , Erestn en suma directa.Demostracin Lo probaremos por induccin en la cantidadr de autovalores conside-rados.Parar=2:Sean1y2autovaloresdistintosdeA.Si v E1 E2,setienequeAv= 1v yAv= 2v, de donde(1 2)v= 0. Como1 2= 0, resulta quev= 0.Issai Schur (1875-1941) naci en Bielorrusia pero pas la mayor parte de su vida en Alemania. Esconocido principalmente por su trabajo fundamental acerca de la teora de representaciones degrupos, pero tambin trabaj en teora de nmeros, anlisis y otras reas.38 Teoria EspectralLuego,E1 E2= 0 y la suma es directa.Supongamos ahora que el resultado vale para el caso der autovalores distintos, y sean1, , r, r+1 autovalores distintos de A. Debemos probar que para cada 1 i r+1,Ei

r+1j=1j=iEj= 0. Sin prdida de generalidad, supongamos quei = r + 1.SeavEr+1 _

rj=1Ej_. Entonces, existenvjEj(1 j r) tales quev= v1 + +vr. Multiplicando esta igualdad por la matrizA, tenemosr+1v= 1v1 + +rvr,pero si la multiplicamos porr+1, se tiener+1v= r+1v1 + +r+1vr.Restando miembro a miembro,0 = (1 r+1)v1 + + (r r+1)vr.Como por hiptesis inductiva, los subespaciosEj(1 j r) estn en suma directa,el vector cero se escribe de forma nica como suma de ceros. Luego,(j r+1)vj= 0para cada1 j r y, por lo tanto,vj= 0 para cada1 j r,con lo cualv= 0.Yavimosquetodoautovalor deunamatrizAesrazdesupolinomiocaracte-rstico. Ahora veremos que siempre existe una relacin entre la dimensin deEy lamultiplicidad de como raz deA.Denicin2.37 SeaA Knny un autovalor deA. La mulltiplicidad algebraicade se dene como la multiplicidad de la raz del polinomio caractersticoA, estoes, comomx k 1, , n [ (x )kdivide aA.Denicin 2.38 SeaA Knny un autovalor deA. La mulltiplicidad geomtricade se dene como la dimensin deE.Existe una relacin entre la multiplicidad algebraica y la multiplicidad geomtrica deun autovalor.Proposicin2.39 SeaA Knny un autovalor deA. Entonces la multiplicidadgeomtrica de es menor o igual a la multiplicidad algebraica de.Demostracin Sea r la multiplicidad algebraica de y s la multiplicacidad geomtricade. DenamosfA: Kn Knla transformacin lineal denida porfA(x)=Ax. Yaque s =dim(E), sea v1, , vs una base de E. Escojamos vs+1, , vn Kntalesque= v1, , vs, vs+1, , vn es una base de Kn. Se tiene que[fA]=__________ss .. 000 0............0 0N0 M__________2.4Una caracterizacin de matrices diagonalizables 39de donde, por la Proposicin 2.33, tenemosfA=det__________ss .. X 000 X 0............0 0X N0 XIns M__________= (X )sdet(XIns M)= (X )sQ(X)Por hiptesis,A= (X )rP(X) conP(X) K[X] tal queP() ,= 0. Entonces(X )sQ(X) = fA= A= (X )rP(X) conP() ,= 0,de dondes r, es decir, la multiplicidad geomtrica de es menor o igual a la multi-plicidad algebraica de.Ejercicio2.40 SeaA KnnyunautovalordeAdemultiplicidadalgebraicaigual a 1. Entonces su multiplicidad geomtrica tambin es igual a 1.Ejercicio 2.41 Calcular los valores propios y sus multiplicidades algebraica y geom-trica de cada una de las siguientes matrices:__7 1 00 7 10 0 7__,__7 1 00 7 00 0 7__,__7 0 00 7 00 0 7__,____4 0 0 00 6 1 00 0 6 10 0 0 6____,____4 0 0 00 6 1 00 0 6 00 0 0 6____,____4 1 0 00 4 0 00 0 6 10 0 0 6____.El siguiente teorema establece condiciones necesarias y sucientes sobre los subespa-ciosE asociados a los autovalores de una matriz para que sta sea diagonalizable.Teorema 2.42 SeaA Knny sean1, . . . , r todos los autovalores deA enK, coni ,= jsii ,= j. Son equivalentes:1.. A es diagonalizable en Knn.2.. ri=1Ei= Kn.3.. A= (X 1)a1 (X r)aryai=dimEipara cada1 i r.Demostracin (1..) (2..) Si Aes diagonalizableenKnn, existeunabase =v1, . . . , vndeKnformadaporautovectoresdeA. Paracadavj, existei, con1 i r, tal quevjes autovector deA de autovalori(porque1, . . . , rson todoslosautovaloresdeA), esdecir vjEiparaalgn1 i r, loqueimplicaquevj

ri=1Ei. En consecuencia, Kn= v1, . . . , vn =

ri=1Ei.(2..) (3..) Seaaila multiplicidad algebraica dei, por la Proposicin 2.39, para40 Teoria Espectralcada1 i r, dimEi ai. Si Kn=

ri=1Eise tiene quen = dim Kn=r

i=1dimEi r

i=1ai gr(A) = n.Luego, en la cadena anterior, son todas igualdades. En particular:La igualdad ri=1ai= gr(A) implica queA se puede factorizar como producto depolinomios de grado1 en K[X]:A= (X 1)a1 (X r)ar.Como dimEi ai para cada1 i r, de la igualdad ri=1 dimEi=

ri=1ai sededuce que dimEi= ai para cada1 i r.(3..) (1..)Paracada1 i rseaiunabasedeEi. PorlaProposicin2.32,= ri=1i es una base de ri=1Ei Kn. Ahora,[ B [=r

i=1[ i [=r

i=1dimEi=r

i=1ai= gr(A)de donde dim (

ri=1Ei) = dim Kn. Luego ri=1Ei= Kny entonces es una base(formada por autovectores deA) de Kn. En consecuencia,A es diagonalizable.Ejemplo 2.43 Decidir siA =____1 0 0 11 1 0 10 0 1 10 0 0 2____ R44es diagonalizable.Solucin: CalculemosA= (X 1)3(X 2). Para el autovalor1 se tiene queE1= x R4[ (I4 A)x = 0 = (0, 1, 0, 0), (0, 0, 1, 0),de donde dim E1= 2 < 3 =la multiplicidad algebraica de 1. El teorema anterior implicaqueA es no diagonalizable.2.5Triangulacin de operadores linealesSe ha demostrado ya que una condicin necesaria y suciente para que una matriz(o un operador lineal) sea diagonalizable es que se pueda encontrar una base formadapor vectores propios. Sin embargo, esto no siempre es posible, y en este caso, lo que sehace es tratar de triangular la matriz.Denicin2.44 SeaVun espacio vectorial de dimensin nita sobre un campoK.Diremos que un operador linealTsobreVes triangulable si existe una baseparaVtal que la matriz de Ten la base es triangular. Una matriz A es triangulable si TA estriangulable.2.6El Teorema de Cayley-Hamilton 41Teorema2.45 UnamatrizA Knnestriangulablesi ysolamentesi existeunamatriz invertiblePtal quePAP1es una matriz triangular.Demostracin Primero, supongamosque A Knnestriangulable, esdecir, TA:KnKnes triangulable. Entonces, existe una base de Kntal que [TA] es triangular.Sea E la base cannica de Kn. Entonces existe una matriz invertible Ptal que [TA]=P[TA]EP1. Pero[TA]E= A. Luego,[TA]= PAP1es triangular.Ahora, supongamosqueexisteunamatrizinvertiblePtal quePAP1=Sesunamatriz triangular. Entonces,[TA]E=A y de aquP[TA]EP1=S. Luego,Sy[TA]Eson matrices semejantes y por lo tanto, existe una base de Kntal que S= [TA]. As,TA es triangulable y en consecuencia,A lo es.En el siguiente captulo, una vez que veamos el proceso de ortogonalizacin de Gram-Schmidth, mostraremoscmohacer unatriangulacinusandoladescomposicindeSchur.2.6El Teorema de Cayley-Hamilton2.6.1Polinomios con coecientes matricialesDenicin 2.46 SeanP0, . . . , Pm Knn. Entonces la expresinP() := P0 +P1 +P22+ +Pmm,se llama polinomio con coecientes matriciales. SiA Knn, entonces se ponePder(A) = P0 +P1A+P2A2+ +PmAm,Pizq(A) = P0 +AP1 +A2P2 + +AmPm.En vez dePder(A) escribimos simplementeP(A).Trabajando con polinomios con coecientes matriciales, hay que tener mucho cuidado.Mostremos un ejemplo de polinomiosP, Q con coecientes matriciales tales que(PQ)(A) ,= P(A)Q(A).SeanP() =_1 00 1_, Q() =_0 10 0_, A =_0 01 0_.Entonces(PQ)() =_0 10 0_, (PQ)(A) =_1 00 0_, P(A)Q(A) =_0 00 1_.Lema 2.47 SeanPyQ polinomios con coecientes matriciales:P() =m

i=0Pii, Q() =s

j=0Qjj,donde Pi, Qj Knn, y sea A Knnuna matriz que conmuta con todos los coecientesdel polinomioQ:QjA = AQj42 Teoria Espectralpara todaj 0, . . . , s. Entonces(PQ)(A) = P(A)Q(A).Demostracin Recordamos la denicin del producto de polinomios:(PQ)() =m+s

k=0__ i+j=kPiQj__k.De aqu,(PQ)(A) =m+s

k=0__ i+j=kPiQj__Ak.Por otro lado,P(A)Q(A) =_m

i=0Pi/i___s

j=0Qj/j__=

0im0jnPiAiQjAj.Juntandolossumandosengruposconi + j =kpodemosescribirel resultadodelasiguiente manera:P(A)Q(A) =m+s

k=0__ i+j=kPiAiQjAj__.Ahora usamos la condicin queA conmuta conQj:PiAiQjAj= PiQjAi+j.De all obtenemos que:P(A)Q(A) =m+s

k=0__ i+j=kPiQjAk__= (PQ)(A).Teorema 2.48 (Cayley-Hamilton) SeaA Kn. EntoncesA(A) = 0,dondeA() = det(I A) es el polinomio caracterstico deA.Demostracin Sabemos que para toda matriz cuadradaB se tieneadj(B)B= det(B)I,donde adj(B) es la matriz adjunta clsica de B o sea la matriz de cofactores conjugada.Apliquemos este resultado a la matrizI A:adj(I A)(I A) = det(I A)I= A()I.La expresin adj(IA) se puede tratar como un polinomio con coecientes matriciales.2.6El Teorema de Cayley-Hamilton 43Aplicamos el Lema 2.47 conP()= adj(I A) yQ()=I A. Notemos que loscoecientes deQ sonIyA, y estas matrices conmutan conA. EntoncesA(A) = P(A)Q(A) = P(A)(IAA) = 0.Corolario2.49 SeaV unespaciovectorialsobre K,dim(V )=n 0 siv ,= 0.Si es un producto interno, escribiremos(v, w) = v, w.Denicin3.2 Aunespaciovectorialreal(respectivamentecomplejo)provistodeun producto interno se lo llama un espacio eucldeo (respectivamente espacio unitario).Delascondiciones(1..)y(2..)deladenicindeproductointernosededucequesi : V V R(respectivamenteC)esunproductointerno, paracada R(respectivamente C), yv, w, z Vse tiene que:(v, w +z) = (v, w) + (v, z),(v, w) = (v, w).56 Espacios con producto internoEjercicio 3.3 Demuestre la frmula_m

j=1juj,n

k=1kwk_=m

j=1n

k=1j kuj, wk.Ejemplo3.4 Se puede comprobar que las funciones denidas a continuacin sonproductos internos sobre los espacios vectoriales correspondientes:Producto interno cannico en Rn:((x1, . . . , xn), (y1, . . . , yn)) = x1y1 + +xnyn.Producto interno cannico en Cn:((x1, . . . , xn), (y1, . . . , yn)) = x1 y1 + +xn yn.DadaB Cmn, denotamos porB Cnma la matriz transpuesta conjugada deB, es decir, a la matriz denida por(B)ij=Bji. Se dene : CmnCmn Ccomo(A, B) = tr(A B).Si a < b R y C[a, b] = f: [a, b] R [f es continua, se dene : C[a, b]C[a, b] R como(f, g) =_abf(x)g(x)dx.Ejemplo 3.5 Sean u = (2 +3i, 5 +2i, 3 +i) y v= (1 +2i, 4 +5i, 5i). Hallar u, vusando el producto cannico en C2.Solucin. Tenemosu, v = (2 + 3i)(1 + 2i) + (5 + 2i)(4 + 5i) + (3 +i)(0 + 5i)= (2 + 3i)(1 2i) + (5 + 2i)(4 5i) + (3 +i)(0 5i)= (8 i) + (10 33i) + (5 + 15i)= 3 19i.Ejercicio 3.6 Muestre que en R2el siguientex, y = x1y1 +x1y2 +x2y1 + 5x2y2.es un producto interno.ComodejaevidentelosEjemplos3.4y3.6,dadounespaciovectorial V esposibledenir distintos productos internos sobre V . En el ejemplo siguiente veremos una familiade productos internos en R2.Ejemplo 3.7 Sea : R2R2R denida por((x1, x2), (y1, y2)) = x1y1 x1y2 x2y1 +x2y2.Hallar todos los valores de R para los cuales es un producto interno.Solucin. Es inmediato vericar que, para cualquier R se cumplen las condiciones3.1Producto Interno 57(1..) y (2..) de la denicin de producto interno. Veamos para qu valores de se cumplela condicin (3..). Se tiene que(f, g) = x21 2x1x2 +x22= x21 2x1x2 +x22 + ( 1)x22= (x1 x2)2+ ( 1)x22De esta igualdad se deduce que(v, v) > 0 v ,= 0 > 1.En consecuencia, es un producto interno si y solamente si > 1.Ejercicio 3.8 Demuestre que la funcin Poln(C) Poln(C) C denida por:P(t), Q(t) =n

k=0akbk,dondeP(t) =

nk=0aktkyQ(t) =

nk=0bktkes un producto interno en Poln(C).3.1.2Norma de un vectorLa nocin que sigue generaliza la de longitud de un vector en R2o R3.Denicin3.9 Sea(V, , )unespaciovectorialsobre R(respectivamente C)conproducto interno y sea v V. Se dene la norma de v asociada a , (y se denota |v|)como|v| =_v, v.Proposicin 3.10 Sea(V, , ) un espacio vectorial con producto interno.1.. Para cadav V , |v| 0, y |v| = 0 si y solamente siv= 0.2.. Sean R (respectivamente C) yv V . Entonces |v| = [[|v|.3.. (Desigualdad de Cauchy-Schwartz.) Siv, w V , entonces[v, w[ |v||w|.4.. (Desigualdad del tringulo.) Siv, w V , entonces|v +w| |v| +|w|.Demostracin 1.. Se sigue inmediatamente de la denicin de norma.2.. Se sigue inmediatamente de la denicin de norma.3.. Siw = 0, no hay nada que hacer. Supongamos entonces quew ,= 0. Se tiene que0 _v v, w|w|2w, v v, w|w|2w_=_v, v v, w|w|2w_ v, w|w|2_w, v v, w|w|2w_= v, v v, w|w|2 v, w v, w|w|2 w, v + v, w|w|2v, w|w|2 w, w= |v|2 [v, w[2|w|2.58 Espacios con producto internoEsto implica que [v, w[2 |v|2|w|2, de donde se obtiene la desigualdad buscada.4.. En primer lugar, observamos que|v +w|2= v +w, v +w= v, v +v, w +v, w +w, w= |v|2+ 2 Rev, w +|w|2.Entonces, teniendo en cuenta que Rev, w [v, w y aplicando la desigualdad deCauchy-Schwartz, resulta que|v +w|2 |v|2+ 2[v, w[ +|w|2 |v|2+ 2|v||w| +|w|2= (|v| +|w|)2,de donde se deduce que |v +w| |v| +|w|.Ejercicio3.11 Demuestreque [x, y[2= x, xy, ysi ysolamentesi x, ysonlinealmente dependientes.La desigualdad de Cauchy-Schwartz vista en ciertos espacios vectoriales con productointerno nos permite obtener distintas propiedades:Ejercicio 3.12 Seanf, g C[a, b]. Entonces_baf(x)g(x)dx__baf2(x)dx_12__bag2(x)dx_12.Ejercicio3.13 Demuestre que la norma asociada a un producto interno satisface lasiguiente propiedad conocida como la identidad de paralelogramo:|x +y|2+|x y|2= 2(|x|2+|y|2).para todax, y V .En general, se puede denir una norma en un espacio vectorialVsobre R o C comouna funcin | | : V R que cumpla las condiciones (1..), (2..) y (4..) de la proposicin3.10. En ese caso decimos que(V, ||) es un espacio normado. Una norma cualquieraenestesentidopuedenoprovenirdeunproductointerno(esdecir, puedenohaberningun producto interno tal que la norma asociada sea ||). Un ejemplo de esto es lanorma innito en Rn, denida por |(x1, . . . , xn)|= mx[x1[, . . . , [xn[.Dada una norma, se puede decidir si proviene o no de un producto interno, ya queste se puede recuperar a partir de su norma asociada:Proposicin 3.14 (Identidades de polarizacin) 1.. Sea(V, , ) unR-espaciovec-torial con producto interno. Entonces para cadav, w Vse tiene:v, w =14|v +w|214|v w|2.3.1Producto Interno 592.. Sea (V, , ) un C-espacio vectorial con producto interno. Entonces para cadav, w Vse tiene:v, w =14|v +w|214|v w|2+i4|v +iw|2i4|v iw|2.Demostracin 1.. Si Ves un R-espacio vectorial, entonces |v +w|2= |v|2+2v, w +|w|2y |v w|2= |v|22v, w +|w|2. Entonces14|v +w|214|v w|2=12v, w _12_v, w = v, w.2.. Anlogamente, siVes un C-espacio vectorial, entonces14|v +w|214|v w|2= Rev, wPor otro lado, |v + iw|2= |v|2+ 2 Rev, iw +|iw|2= |v|2+ 2 Imv, w +|w|2y, similarmente, |v?iw|2= |v|22 Imv, w +|w|2, lo que implica quei4|v +iw|2i4|v iw|2= i Imv, w.La identidad del enunciado se obtiene haciendo v, w =Rev, w +i Imv, w.Unanormacualquieraestarasociadaaunproductointernosi ysolamentesi lafuncin que se obtiene mediante estas identidades resulta un producto interno. En loque sigue, slo se considerarn normas asociadas a productos internos.3.1.3Distancia entre vectoresA partir de la denicin de norma de un vector, podemos denir la nocin de distanciaentre dos vectores.Denicin 3.15 SeaVun R- (o C-) espacio vectorial con producto interno , . Sedened : V V R comod(v, w) = |v w|.Utilizando las propiedades de la norma se puede vericar que la funcind satisfacelas siguientes propiedades:1.. d(v, w) 0 v, w V.2.. d(v, w) = 0 v= w.3.. d(v, w) = d(w, v) v, w V.4.. d(v, z) d(v, w) +d(w, z) v, w, z V.Dados vectoresv, w Vse dice qued(v, w) es la distancia (o mtrica) entrev yw.Dado un conjunto no vaco cualquieraX, puede denirse una distancia enXcomocualquier funcind : X X R que cumpla las cuatro propiedades anteriores. En esecaso decimos que (V, d) es un espacio mtrico. Una distancia cualquiera en este sentidopuede no provenir de ninguna norma. En lo que sigue, slo trabajaremos con distanciasasociadas a normas asociadas a productos internos.60 Espacios con producto internoObservacin 3.16 En resumen, un espacio vectorial real o complejo con un productointerno , se puede considerar como un espacio normado con la norma|x| :=_x, xy como un espacio mtrico con la mtricad(x, y) := |x y| =_x y, x y.La norma se puede expresar a travs de la mtrica mediante la frmula|x| = d(x, 0),y el producto interno se puede expresar a travs de la norma mediante la identidad depolarizacion.3.1.4ngulo entre dos vectoresSea(V, , ) un espacio eucldeo. La desigualdad de Cauchy-Schwartz establece quepara todo par de vectoresv, w Vse tiene que v, w[ |v||w|. Siv, w ,= 0, resultaentonces que1 v, w|v||w| 1.Esto nos permite introducir la siguiente nocin de ngulo entre dos vectores:Denicin3.17 Sea(V, , ) unespacioeucldeoyseanv, wV nonulos. Sedeneel nguloentrevywcomoel niconmeroreal = (v, w) [0, ] talquecos() =v,wvw.Observamos que si es el ngulo entrev yw, entonces|v +w|2= v +w, v +w = |v|2+ 2v, w +|w|2= |v|2+ 2 cos()|v||w| +|w|2,que es la frmula conocida como teorema del coseno.Ejercicio3.18 En el espacio Rncon el producto interno cannico consideremos dosvectores: u=e1=(1, 0, . . . , 0)esunladodel cubounitario, v =(1, 1, . . . , 1)esladiagonal deestecubo. Calculeel nguloentre(u, v). Calculeel lmitede(u, v)cuandon .3.1.5Matriz de Gram de un producto interno en una base devectoresSiVes un espacio vectorial de dimensin nita con un producto interno , , jadauna base deV , vamos a construir una matriz asociada al producto interno y a dichabase.Denicin3.19 SeaV unR-(respectivamenteC-)espaciovectorial dedimensinnita, sea , un producto interno sobreVy sea= v1, . . . , vn una base deV. Se3.1Producto Interno 61dene la matriz de Gram del producto interno , en la base = v1, v2, . . . , vn comola matrizG() = G(v1, . . . , vn)i,j= vi, vj.Ejemplo 3.20 En el espacio Pol2(R) con el producto internof(t), g(t) =12_11f(t)g(t)dty la base cannica 1, t, t2. Calculear la matriz de Gram.Solucin. Primero, calculamos todos los productos internos:1, 1 = 1, 1, x = 0, 1, x2 =13,x, 1 = 0, x, x =13, x, x2 = 0,x2, 1 =13, x2, x = 0, x2, x2 =15,De aqu:G(1, x, x2) =__1 013013013015__Ejercicio 3.21 En el caso real, la matriz de Gram es simtrica:G(v1, . . . , vn)T= G(v1, . . . , vn).Ejercicio 3.22 En el caso complejo, la matriz de Gram es hermitiana, es decir,G(v1, . . . , vn)T= G(v1, . . . , vn).Proposicin 3.23 Sea Vun R-(o C-) espacio vectorial de dimensin nita y sea , unproductointernosobreV .SeaunabasedeV .Entonces,paracadav, w V ,setiene quev, w = [v]G()[w]T.Demostracin Sea = v1, . . . , vn. Supongamos que v=

ni=1ivi y w =

ni=1ivi.Entoncesv, w =_n

i=1ivi,n

j=1jvj_=n

i=1i_vi,n

j=1jvj_=n

i=1i__n

j=1 jvi, vj__.Por otro lado, teniendo en cuenta que [v]= (1, . . . , n) y [w]= (1, . . . , n), resultaquev, w = [v]G()[w]T=n

i=1i_G()[w]T_i,j=n

i=1i__n

j=1vi, vj j__.Luego v, w = [v]G()[w]T.62 Espacios con producto interno3.2OrtogonalidadEnestaseccingeneralizaremoslanocinconocidadeperpendicularidadenR2yalgunas propiedades que se basan en esta nocin, a espacios vectoriales con productointerno arbitrarios.3.2.1Conjuntos ortogonales y ortonormalesDenicin 3.24 Sea (V, , ) un espacio vectorial con producto interno. Dos vectoresv, w Vse dicen ortogonales (o perpendiculares) si v, w = 0 y lo denotamos por v w.Essiguienteejerciciomuestraquelaortogonalidaddedosvectoresesunarelacinbinaria simtrica. Es una relacin de equivalencia?Ejercicio 3.25 Seanx, y Vtales quex y. Muestre quey x.Observacin3.26 (TeoremadePitgoras)Si v, w V sonvectoresortogonales,entonces |v +w|2= |v|2+|w|2.Denicin 3.27 Seav Vy seaX V . Decimos quev es ortogonal al conjuntoXy escribimosv Xsiv es ortogonal a cualquier vector del conjuntoX, es decir,v X x X, v x.Ejercicio 3.28 SeaVun espacio vectorial con producto interno. Muestre que0 V.Ejercicio 3.29 Cul vector es ortogonal a si mismo?. Es decir, halle todos los vectoresu Vque cumplen con la propiedadu u.Ejercicio 3.30 Seau Vtal queu V .Demuestre queu = 0.Resumiendo los resultados de los Ejercicios 3.28 y 3.30 obtenemos:Proposicin3.31 (Criterio de la ortogonalidad de un vector a todo el espacio) SeaVun espacio vectorial con producto interno yu V . Entoncesu V u = 0.Ejercicio 3.32 Sea X Vcon Vun espacio producto interno y sea v V . Entonceslas siguientes condiciones son equivalentes:v X v X.Denicin3.33 Sea(V, , ) un espacio vectorial con producto interno. Un vectorv Vse dice unitario (o normalizado) si |v|=1. Si v V 0, entonces el vectorvvest normalizado.Denicin 3.34 Sea(V, , ) un espacio vectorial con producto interno. Se dice quev1, . . . , vr Ves un conjunto ortogonal si vi, vj=0 para todai ,=j. El conjuntose dice ortonormal si es ortogonal y adems |vi| = 1 para cada1 i r.Ejemplo3.35 En Rn(o Cn) con el producto interno cannico, la base cannica esun conjunto ortonormal:ei, ej = 0 sii ,= j.3.2Ortogonalidad 63|ei|2= ei, ei = 1 para cada1 i n.Ejemplo3.36 En R2con el producto interno cannico, el conjunto (1, 1), (1, 1)esunconjuntoortogonal, pues (1, 1), (1, 1)=0. Esteconjuntonoesortonormal,ya que |(1, 1)|=2 ,=1 y |(1, 1)|=2 ,=1. A partir de este conjunto podemoshallarunoqueesortonormal dividiendocadaunodeellosentresunorma, esdecir,normalizamos. Entonces el conjunto__12,12_,_12, 12__ es ortonormal.Ejemplo 3.37 Los siguientes vectoresa1, a2, a3 forman un sistema ortogonal en R4:a1= (1, 1, 1, 1), a2= (1, 1, 1, 1), a3= (2, 1, 2, 1).Calculemos los productos internos:a1, a1 = 4, a1, a2 = 0, a1, a3 = 0,a2, a1 = 4, a2, a2 = 0, a1, a3 = 0,a3, a1 = 4, a3, a2 = 0, a3, a3 = 10,Normalizando los vectoresa1, a2, a3 obtenemos un conjunto ortonormal:a1= (12,12,12,12), a2= (12, 12,12, 12), a3= ( 210,110,210,110).Ejercicio3.38 Muestrequeelsiguienteconjunto de vectoresen R4esortogonalynormalcelo:a1= (1, 2, 3, 1), a2= (1, 3, 2, 1), a3= (8, 3, 1, 1).Ejercicio 3.39 En el espacio vectorial complejo C([, ], C) con el producto interno:f(x), g(x) =_f(x)g(x)dxconsideremos las funcionesek(x) = eikx=cos(kx) +i sen(kx).Muestre que el sistema(ek)kZ es ortonormal.Ejercicio3.40 (El Teorema de Pitgoras generalizado) Seaa1, . . . , amun conjuntoortogonal en el espacio producto internoV . Demuestre que_____m

k=1ak_____2=m

k=1|ak|2.Si (V, , ) es un espacio vectorial con producto interno, la matriz de Gram asociadaa , en una base ortogonal (u ortonormal) deVes particularmente simple:Observacin3.41 Si(V, , ) es un espacio vectorial de dimensinn con productointerno, entonces= v1, . . . , vn es una base deVortogonal para , si y solamentesiG(v1, . . . , vn) =_____v1, v1 000 v2, v20............0 0vn, vn_____64 Espacios con producto internoEn particular, es una base ortonormal deVsi y solamente siG(v1, . . . , vn) =_____1 000 10............0 01_____= In.Si se tiene una base ortogonal de un subespacio, las coordenadas en esta base de cual-quier vector del subespacio pueden encontrarse fcilmente usando el producto interno:Proposicin 3.42 Sea (V, , ) un espacio vectorial con producto interno. Sea v1, . . . , vr V un conjunto ortogonal tal quevi ,=0 para cada1 i ry seavuna combinacinlineal de los vectores v1, . . . , vr:v=r

j=1jvj.Entoncesj= v, vj|vj|2.Demostracin Para cada1 j r, calcule directamente el producto interno v, vj.Corolario 3.43 Sea (V, , ) un espacio vectorial con producto interno. Sea v1, . . . , vr Vun conjunto ortonormal y seavuna combinacin lineal de los vectores v1, . . . , vr:v=r

j=1jvj.Entoncesj= v, vj.Ejercicio 3.44 Escriba una prueba del Corolario 3.43.Teorema 3.45 Sea (V, , ) un espacio vectorial con producto interno. Sea v1, . . . , vr Vun conjunto ortogonal de Vcon vi ,= 0 para cada 1 i r. Entonces v1, . . . , vr Ves un conjunto linealmente independiente.Demostracin Supongamos quer

j=1jvj= 0.Aplicamos la Proposicin 3.43 conv= 0, para cada1 j r:j= 0, vj|vj|2= 0.Corolario 3.46 Sea (V, , ) un espacio vectorial con producto interno. Sea v1, . . . , vr Vun conjunto ortonormal deV. Entonces v1, . . . , vr Ves un conjunto linealmenteindependiente.3.3El proceso de ortogonalizacin de Gram-Schmidt 65Ejercicio 3.47 Escriba una prueba del Corolario 3.46.Ejercicio 3.48 Sea (V, , ) un espacio vectorial con producto interno y v1, . . . , vr Vun conjunto ortonormal deV. Demuestre que:1.. Seanv yw una combinacin lineal de los vectores v1, . . . , vr, entonces:v, w =r

i=1v, viw, vi2.. Seav una combinacin lineal de los vectores v1, . . . , vr, entonces:|v| =_r

i=1[v, vi[2_123.3El proceso de ortogonalizacin de Gram-SchmidtEn lo que sigue, intentaremos encontrar bases ortonormales en un espacio vectorialde dimensin nita con producto interno. Comenzaremos haciendo esto en un ejemplo.Ejemplo 3.49 Se considera en R2el producto interno denido por(x1, x2), (y1, y2)_= x1y1 x1y2 x2y1 +x2y2con > 1. Hallar una base de R2ortogonal para este producto interno.Solucin. Elegimos un vector en R2, por ejemplo, (1, 0). Buscamos un vector ortogonala ste para el producto interno dado, es decir, un vector(y1, y2) R2tal que0 =(1, 0), (y1, y2)_= y1 y2,por ejemplo,(y1, y2) = (1, 1). Entonces (1, 0), (1, 1) es una base ortogonal de R2.Ejercicio 3.50 Ortonormaliza la base hallada en el Ejemplo 3.49.La proposicin siguiente asegura que todo espacio vectorial de dimensin nita conproducto interno tiene una base ortogonal. Ms an, su demostracin da un procedi-miento recursivo, conocido como el mtodo de ortogonalizacin de Gram-Schmidt, quepermiteobtenerunabaseortogonal del espacioapartirdeunabasecualquieradelmismo.Teorema3.51(Mtodo de ortogonalizacin de Gram-Schmidt) Sea(V, , ) un es-pacio vectorial con producto interno y sea v1, . . . , vn una base deV. Existe un baseortogonal = z1, . . . , zn deVtal que(v1, . . . , vk) = (z1, . . . , zk).para cada1 k n.Demostracin Construiremos los vectores de la base recursivamente:Tomamosz1= v1, que satisface(z1) = (v1).66 Espacios con producto internoBuscamos z2V con z2, z1 =0ytal que (z1, z2) =(v1, v2). Estasegundacondicinsecumplesiysolamentesi z2esdelaformaz2=av1+ bv2conb ,=0.Podemos suponer entonces queb=1, es decir,z2=v2 + av1y buscara de maneraque se cumpla la primera condicin:0 = z2, z1 = v2 +av1, v1 = v2, v1 +av1, v1,lo que implica quea = v2, v1|v1|2.Luego, el vectorz2= v2 v2, v1|v1|2v1= v2 v2, v1|v1|2z1satisface las condiciones requeridas.Supongamos construidosz1, . . . , zr Vtales que1.. zi, zj = 0 sii ,= j.2.. (z1, . . . , zk) = (v1, . . . , vk) para toda1 k r.Consideramos el vectorzr+1= vr+1 r

i=1vr+1, zi|zi|2zi. (3.1)Se tiene que1.. (z1, . . . , zr, zr+1) = (z1, . . . , zr, vr+1) = (v1, . . . , vr, vr+1),2.. para cadaj r:zr+1, zj =_vr+1 r

i=1vr+1, zi|zi|2zi, zj_= vr+1, zj r

i=1vr+1, zi|zi|2zi, zj= vr+1, zj vr+1, zj|zj|2zj, zj= 0.Luego,zr+1 satisface las condiciones requeridas.De esta manera, al concluir eln-simo paso se obtiene una base ortogonal z1, . . . , zndeVque adems satisface(z1, . . . , zk) = (v1, . . . , vk) para cada1 k n.Corolario 3.52 Sea (V, , ) un espacio vectorial con producto interno y sea v1, . . . , vnuna base deV. Existe un base ortonormal = w1, . . . , wn deVtal que(v1, . . . , vk) = (w1, . . . , wk).para cada1 k n.Ejercicio 3.53 Redacte una prueba del Corolario 3.52.3.3El proceso de ortogonalizacin de Gram-Schmidt 67Corolario3.54 Sea(V, , )unespaciovectorial dedimensinnitaconproductointerno,yseaSunsubespaciodeV , S ,= 0.EntoncesexisteunabaseortonormaldeVque contiene una base ortonormal deS.Demostracin Sea s1, . . . , srunabasede S. Existenvr+1, . . . , vnV talesque= s1, . . . , sr, vr+1, . . . , vn es una base de V . Aplicando el proceso de Gram-Schmidta se obtiene una base ortonormal

= w1, . . . , wr, wr+1, . . . , wn deVque satisface(w1, . . . , wr) = (s1, . . . , sr) = S.En consecuencia, w1, . . . , wr es una base ortonormaldeSincluida en la baseorto-normal

deV .Ejemplo 3.55 Aplique la ortogonalizacin de Gram-Schmidt al siguiente conjunto devectores v1, v2, v3 :v1= (4, 2, 1, 2), v2= (6, 3, 4, 8), v3= (5, 5, 3, 4).UsandolamatrizdeGramcompruebequeel sistemadevectores z1, z2, z3queseobtiene al nal es ortogonal.Solucin.Comenzamos tomandoz1 como el primer vector de la base:z1= (4, 2, 1, 2).Construimos ahoraz2 aplicando la frmula (3.1) parar = 1:z2= v2 v2, z1|z1|2z1= (6, 3, 4, 8) (6, 3, 4, 8), (4, 2, 1, 2)|(4, 2, 1, 2)|2(4, 2, 1, 2)= (6, 3, 4, 8) + 2(4, 2, 1, 2)= (2, 1, 2, 4).Finalmente, hallamosz3 aplicando nuevalmente la frmula (3.1) parar = 2:z3= v3 v3, z1

z1

2z1 v3, z2

z2

2z2= (5, 5, 3, 4) (5, 5, 3, 4), (4, 2, 1, 2)(4, 2, 1, 2)2(4, 2, 1, 2) (5, 5, 3, 4), (2, 1, 2, 4)(2, 1, 2, 4)2(2, 1, 2, 4)= (5, 5, 3, 4) (1)(4, 2, 1, 2) (1)(2, 1, 2, 4)= (1, 2, 4, 2).La comprobacin:G(z1, z2, z3) =__4 2 1 22 1 2 41 2 4 2______4 2 12 1 21 2 42 4 2____=__25 0 00 25 00 0 25__.Ejercicio 3.56 Ortogonalizar el siguiente conjunto de vectores en R4:v1= (2, 4, 5, 2), v2= (6, 5, 1, 6), v3= (10, 13, 4, 3).Ejercicio 3.57 Ortonormalizar el siguiente conjunto de vectores en R4:v1= (5, 1, 1, 3), v2= (9, 3, 3, 7), v3= (7, 1, 1, 1), v4= (5, 5, 1, 5).68 Espacios con producto internoEjemplo 3.58 Dada la base = (1, 0, i), (1, 1, 2+i), (0, 0, 1) de C3, ortonormalizarlausando el mtodo de Gram-Schmidt.Solucin. Denotaremos porv1= (1, 0, i), v2= (1, 1, 2 +i) yv3= (0, 0, 1).Comenzamos tomandoz1 como el primer vector de la base:z1= (1, 0, i).Construimos ahoraz2 aplicando la frmula (3.1) parar = 1:z2= v2 v2, z1|z1|2z1= (1, 1, 2 +i) (1, 1, 2 +i), (1, 0, i)|(1, 0, i)|2(1, 0, i)= (1, 1, 2 +i) (1 i)(1, 0, i)= (i, 1, 1).Finalmente, hallamosz3 aplicando nuevamente la frmula (3.1) parar = 2:z3= v3 v3, z1|z1|2z1 v3, z2|z2|2z2= (0, 0, 1) (0, 0, 1), (1, 0, i)|(1, 0, i)|2(1, 0, i) (0, 0, 1), (i, 1, 1)|(i, 1, 1)|2(i, 1, 1)= (0, 0, 1) +i2(1, 0, i) 13(i, 1, 1)= (i6, 13, 16).El conjunto z1, z2, z3esunabaseortogonal deC3. Dividiendocadavectorporsunorma, obtenemosw1=z1|z1|=12(1, 0, i) =_12, 0,i2_.w2=z2|z2|=13(i, 1, 1) =_i3,13,13_.w3=z3|z3|=6_i6, 13, 16_=_6i6, 63,66_.ta