tex to alg re bra lineal

175
Álgebra Lineal Miguel A. Marmolejo L. & Manuel M. Villegas L. Departamento de Matemáticas Universidad del Valle

Upload: idiazm

Post on 28-Sep-2015

244 views

Category:

Documents


0 download

DESCRIPTION

apuntes de algebra lineal

TRANSCRIPT

  • lgebra Lineal

    Miguel A. Marmolejo L. & Manuel M. Villegas L.

    Departamento de MatemticasUniversidad del Valle

  • ndice general

    Introduccin 1

    ndice de figuras iii

    Captulo 1. Preliminares 11.1. Matrices 11.2. Espacios vectoriales 51.3. Transformaciones lineales 111.4. Espacios fundamentales de una matriz. Rango de una matriz. Sistemas de ecuaciones lineales 13

    Captulo 2. Matrices Particionadas. Traza de una Matriz 172.1. Submatrices. Operaciones con matrices particionadas 172.2. Determinantes e inversas de algunas matrices especiales 212.3. Traza de una matriz 28

    Captulo 3. Valores propios y vectores propios. Diagonalizacin 313.1. Valores propios y vectores propios 313.2. Diagonalizacin 393.3. Diagonalizacin de matrices simtricas 483.4. Diagonalizacin simultnea de matrices simtricas 63

    Captulo 4. Formas cuadrticas 714.1. Clasificacin de las formas cuadrticas. 714.2. Cambio de variable. Diagonalizacin de formas cuadrticas 744.3. Formas cuadrticas positivas, negativas e indefinidas. 824.4. Anexo: Matrices no negativas. Matrices idempotentes 89

    Captulo 5. Inversa generalizada e inversa condicional de matrices. 995.1. Inversa generalizada de una matriz 995.2. Clculo de la g-inversa de una matriz 1075.3. Inversa condicional de una matriz 1125.4. Sistemas de ecuaciones lineales: g-inversa y c-inversa de una matriz. mnimos cuadrados. 119

    Captulo 6. Factorizacin de matrices 1316.1. Descomposicin LU 1316.2. Descomposicin QR 1386.3. Descomposicin de Cholesky 1466.4. Descomposicin en valores singulares (SVD) 151

    Captulo 7. Rectas e hiperplanos. Conjuntos convexos. 1577.1. Rectas. Segmentos de recta. Hiperplanos 1577.2. Conjuntos convexos 164

  • ndice general

    ndice alfabtico 169

    Bibliografa 171

    ii

  • ndice de figuras

    1.1. Transformacin lineal 15

    3.1. Interpretacin geomtrica de vector propio 323.2. Vectores propios de T (x, y) = (2x, x+ 3y) 33

    5.1. Problema de los mnimos cuadrados 1205.2. Ajuste por mnimos cuadrados 1215.3. Ajuste lineal por mnimos cuadrados 1225.4. Ajuste lineal ejemplo 5.50 1265.5. Ajuste lineal ejemplo 5.51 1275.6. Ajuste cuadrtico ejemplo 5.52 129

    6.1. Esquema de la factorizacin LU 136

    7.1. Puntos y vectores en R3. 1577.2. Una recta en R2. 1587.3. Grfica de una recta que pasa por los puntos P y Q. 1597.4. Segmento de recta que une los puntos P y Q 1607.5. Grfica de un plano en R3. 1617.6. Grficas de un plano y una recta en R3 1627.7. Ilustracin de semiespacios abiertos 1637.1. Conjuntos convexos y no convexos 165

    iii

  • CAPTULO 1

    Preliminares

    En este captulo se recopilan algunas definiciones y algunos resultados bsicos que servirn de referenciaen el desarrollo de los captulos posteriores. Se consideran aqu varios aspectos relacionados con matrices,espacios vectoriales y transformaciones lineales. El orden en que se presentan los temas no corresponde alencontrado en la mayora de textos utilizados en un primer curso de lgebra lineal (Grossman [5], Nakos yYoyner [10], Strang [14] y otros).

    1.1. Matrices

    Una matriz A de tamao m n (o simplemente Amn) es un arreglo rectangular de escalares 1 dispuestosen m filas ("lneas" horizontales) y n columnas ("lneas" verticales); el escalar que est en la i-sima fila yen la j-sima columna se denota por aij o Aij y se llama elemento ij de la matriz A. Para indicar dichoarreglo usualmente se escribe A = [aij ]mn, o en forma expandida

    (1.1) A =

    26664a11 a12 a1na21 a22 a2n...

    .... . .

    ...am1 am2 amn

    37775 .Si Ai denota la i-sima fila de A y Aj la j-sima columna de A; esto es,

    Ai =ai1 ai2 ain

    ; Aj =

    26664a1ja2j...

    amj

    37775 ,

    entonces el arreglo (1.1) se puede representar por filas o por columnas como sigue:

    A =

    26664A1A2...Am

    37775 = A1 A2 An .Las matrices se denotan, como se ha sugerido, con letras maysculas A, B, C, etc. El conjunto de todaslas matrices mn con elementos reales se denotar por Mmn(R) o simplemente Mmn. Los elementos deMnn se llaman matrices cuadradas de orden n; a la "diagonal" formada por los elementos a11, a22, . . . , annde una tal matriz A, se le llama diagonal principal de A.

    1A no ser de que se exprese lo contrario, todos los escalares sern nmeros reales

    1

  • 1.1. Matrices Preliminares

    Toda matriz cuadrada A cuyos elementos fuera de la diagonal principal son nulos (aij = 0 para i 6= j, i, j =1, 2, . . . , n), se denomina matriz diagonal y usualmente se escribe A = diag(a11, a22, . . . , ann). Una matrizcuadrada se llamada triangular superior (inferior) si todos sus elementos abajo (arriba) de su diagonalprincipal son nulos.

    La matriz diagonal de orden n, cuyos elementos en su diagonal principal son todos iguales a 1, se denominamatriz idntica o matriz identidad de orden n; tal matriz se denota por In (o simplemente I, cuando no seanecesario especificar el orden).

    Una matriz nula es una matriz cuyos elementos son todos nulos. Una matriz nula ser denotada por 0 (opor 0mn cuando sea necesario especificar el tamao de la matriz).

    Dos matrices A y B de igual tamao m n son iguales si y slo si sus componentes correspondientes soniguales. Esto es,

    Aij = Bij ; i = 1, 2, . . . ,m, j = 1, 2, . . . , n.La suma A+B de dos matrices A y B de tamao m n, es la matriz m n tal que:

    A+Bij = Aij + Bij ; i = 1, 2, . . . ,m, j = 1, 2, . . . , n.La multiplicacin A del nmero por la matriz A de tamao m n, es la matriz de tamao m n, talque:

    Aij = Aij ; i = 1, 2, . . . ,m, j = 1, 2, . . . , n.El producto AB de la matriz A Mms por la matriz B Msn, es la matriz de tamao m n, tal que:

    ABij =sX

    k=1

    Aik Bkj Ai Bj ; i = 1, 2, . . . ,m, j = 1, 2, . . . , n.

    1.1.1. Inversa de una matriz. Sea A Mnn. Si existe una matriz B Mnn tal que AB = I,se puede demostrar que BA = I y que B es nica. Cuando existe una matriz B tal que AB = I, a B se lellama la matriz inversa de A y se le denota por A1. Es este caso se dice que A es no singular o invertible;en caso contrario, se dice que A es no invertible o singular.

    En el siguiente teorema se establecen algunas propiedades de la inversa de una matriz

    1.1. Teorema. Si A, B Mnn son matrices invertibles y si es un nmero no nulo, entonces:1. La matriz A1 es invertible y

    `A1

    1= A.

    2. La matriz AB es invertible y (AB)1 = B1A1.3. La matriz A es invertible y (A)1 = 1A1.

    1.1.2. Transpuesta de una matriz. Sea A una matriz m n. La matriz transpuesta de A es lamatriz n m, denotada por AT , cuya i-sima fila corresponde a la i-sima columna de la matriz A. Estoes, la transpuesta de A es la matriz AT tal que ATij = Aji, para i = 1, 2, . . .m, y j = 1, 2, . . . n.

    Sea A una matriz cuadrada. Si AT = A, se dice que A es una matriz simtrica, y si AT = A, se dice queA es una matriz antisimtrica. En particular, las matrices diagonales son simtricas.

    Las propiedades ms relevantes de la transpocisin se dan en el siguiente teorema.

    1.2. Teorema. Si A y B son matrices tales que las operaciones siguientes estn bien definidas, entonces:1. (AT )T = A.2. AT = BT si y slo si A = B.3. Si A es una matriz diagonal, entonces AT = A.4. Si , son nmeros, entonces (A+ B)T = AT + BT .5. (AB)T = BTAT .

    2

  • Preliminares 1.1. Matrices

    6. Las matrices ATA y AAT son simtricas.7. Si A es invertible, entonces AT es invertible y (AT )1 = (A1)T .

    1.1.3. Determinantes. En este apartado se dan las definiciones de menor, cofactor,matriz de cofac-tores, matriz adjunta y determinante de una matriz cuadrada. Adems se presentan algunas propiedadesdel determinante. En lo sucesivo, el determinante de una matriz A ser denotado por |A| o por det(A).Se define el determinante de una matriz de manera inductiva. Para una matriz A11, que consta de un sloelemento; digamos A = [a], se define det(A) = a. El determinante de una matriz n n; n 2, se define entrminos de determinantes de matrices (n 1) (n 1); para ello es necesario introducir los conceptos demenor y cofactor.

    Sea A = [aij ]nn; el menor del elemento Aij se denota por mij y se define como el determinante de lamatriz que resulta al suprimir la i-sima fila de A y la j-sima columna de A. El cofactor del elemento Aijse denota por Cij y se define como

    Cij = (1)i+jmij .La matriz C, cuyos elementos son los cofactores Cij de A se denomina matriz de los cofactores de A. Latranspuesta de la matriz de cofactores C, se denomina adjunta de A y se denota por adj(A), es decir,adj(A) = CT .

    El determinante de A se define entonces como el nmero

    det(A) =

    nXj=1

    A1j C1j ,

    En particular, si A = [aij ]22 entonces det(A) = a11a22 a12a21.En el siguiente teorema se dan expresiones para calcular el determinante de una matriz (cuadrada) entrminos de sus cofactores. Adems, muestra que el valor del determinante no depende de la fila o columnaa lo largo de la cual se haga la expansin. Dicho teorema presenta tambin una forma para calcular lainversa de una matriz.

    1.3. Teorema. Sea A una matriz cuadrada de orden n.

    1. Si Cij denota el cofactor del elemento Aij, entonces:

    a) det(A) =nXj=1

    Aij Cij , para cada i = 1, 2, . . . , n.

    b) det(A) =nXi=1

    Aij Cij , para cada j = 1, 2, . . . , n.2. Para cualquier matriz cuadrada A, se tiene que

    A adj(A) = adj(A) A = det(A) I .3. La matriz A es invertible sii |A| 6= 0, en este caso se tiene que

    A1 = (det(A))1 adj(A) .

    Las principales propiedades del determinante de una matriz se recogen en el teorema que sigue.

    1.4. Teorema. Sean A, B y C matrices cuadradas de orden n, entonces:

    1. |A| = |AT | .2. Si A tiene una fila nula, entonces |A| = 0.

    3

  • 1.1. Matrices Preliminares

    3. Si A y B son matrices que difieren nicamente en la k-sima fila y si Ak = Bk (con 6= 0),entonces |A| = |B|.

    4. Si es un escalar, entonces |A| = n|A|.5. Si A, B y C difieren nicamente en la k-sima fila y si Ck = Ak +Bk, entonces |C| = |A|+ |B|.6. Si A tiene dos filas iguales, entonces |A| = 0.7. Si B se obtiene al intercambiar dos filas de A, entonces |B| = |A|.8. El determinante de una matriz no cambia si los elementos de la i-sima fila son multiplicados por

    un escalar y los resultados son sumados a los correspondientes elementos de la k-sima fila, parak 6= i.

    9. |AB| = |A||B|.Nota. Por (1), cualquier proposicin sobre |A| que sea verdadera en las filas de A es tambin verdaderapara las columnas de A.

    1.1.4. Operaciones elementales. Matrices elementales. En este apartado se introducen lasoperaciones elementales y las correspondientes matrices elementales, que constituyen la herramienta bsicapara describir ciertos procesos de clculo y para demostrar algunos resultados importantes del lgebra linealrelacionados con los sistemas de ecuaciones lineales, con la inversa generalizada de una matriz y con diversasdescomposiciones de una matriz. Para un desarrollo detallado ver Espinosa y Marmolejo [6].

    1.5. Definicin (Operaciones y matrices elementales). Dada una matriz A, cada una de las siguientesoperaciones es llamada una operacin elemental en las filas (columnas) de A.

    (i) El intercambio de dos filas (columnas) de A.(ii) La multiplicacin de los elementos de una fila (columna) de A por un escalar no nulo.(iii) Reemplazar una fila (columna) de A, por la suma de ella y un mltiplo escalar no nulo de otra fila

    (columna) de dicha matriz.

    Una matriz elemental por filas (columnas) es aquella que resulta de efectuar una operacin elemental sobrelas filas (columnas) de una matriz identidad.

    1.6. Teorema (Matrices elementales).

    1. Cada matriz elemental es invertible. Adems, la inversa de cada matriz elemental es una matrizelemental.

    2. Sea A una matriz mn. Si B es una matriz que resulta al efectuar una operacin elemental sobrelas filas de A y si E es la matriz elemental que resulta de efectuar la misma operacin elementalsobre las filas de la matriz idntica Im, entonces E A = B.

    3. Sea A una matriz m n. Si B es una matriz que resulta al efectuar una operacin elementalsobre las columnas de A y si E es la matriz elemental que resulta de efectuar la misma operacinelemental sobre las columnas de la matriz idntica In, entonces A E = B.

    1.7.Definicin (Forma escalonada reducida). Se dice que una matriz R tiene la forma escalonada reducida,si satisface las siguientes condiciones:

    (i) Si una fila de R es no nula, el primer elemento no nulo de dicha fila, de izquierda a derecha, es 1.(ii) Si las filas i e i+ 1 de R son no nulas, el primer elemento no nulo de la fila i+ 1 est a la derecha

    del primer elemento no nulo de la fila i.(iii) Si una columna de R contiene el primer elemento no nulo de una fila de R, los dems elementos

    de dicha columna son nulos.(iv) Si R tiene filas nulas, stas aparecen en la parte inferior de R.

    El siguiente teorema relaciona los conceptos de matrices elementales y forma escalonada reducida para unamatriz arbitraria.

    4

  • Preliminares 1.2. Espacios vectoriales

    1.8. Teorema. Para toda matriz A existe una nica matriz R que tiene la forma escalonada reducida y unnmero finito de matrices elementales por filas E1, E2, . . . , Ek tales que:

    Ek E2 E1 A = R .

    La matriz R mencionada en el teorema anterior se denomina la forma escalonada reducida de A.

    1.9. Teorema. Sea A una matriz cuadrada de orden n.

    1. A es invertible sii la forma escalonada reducida de A es In.2. A es invertible sii A se puede expresar como el producto de un nmero finito de matrices elementales.

    Los dos ltimos teoremas dan lugar a un mtodo para decidir cundo una matriz cuadrada A es invertibley, simultneamente, proveen un algoritmo para calcular su inversa.

    El mtodo consiste en lo siguiente: Forme la matriz [A | In]. Seguidamente efecte operaciones elementalessobre la filas de esta matriz hasta obtener su forma escalonada reducida; al final se obtiene una matrizque se representa como: [R |P ]; donde R es la forma escalonada reducida de A. Ahora: A es invertible siiR = In. Si A es invertible entonces A1 = P .

    1.2. Espacios vectoriales

    El conjunto de matricesmn, junto con las operaciones suma de matrices y multiplicacin de un escalar poruna matriz, tiene una estructura algebraica denominada espacio vectorial. Esta estructura es importanteporque incluye otros conjuntos que se presentan frecuentemente en las matemticas y sus aplicaciones.

    1.10. Definicin. Un espacio vectorial (real) es un conjunto V , cuyos elementos son llamados vectores,junto con dos operaciones: suma de vectores (+) y multiplicacin de un escalar por un vector (), quesatisfacen las propiedades siguientes:

    (i) Si u V y v V , entonces u+ v V .(ii) Si u V y v V , entonces u+ v = v + u.(iii) Si u V , v V y w V , entonces

    (u+ v) +w = u+ (v +w) = u+ v +w.

    (iv) Existe un vector 0 V tal que para todo u V , u+ 0 = 0+ u = u.(v) Si u V , entonces existe un vector u V tal que

    u+ (u) = (u) + u = 0.(vi) Si u V y es un escalar, u V .(vii) Si u V y , son escalares, entonces ()u = (u) = (u).(viii) Si u V y , son escalares, entonces (+ )u = u+ u.(ix) Si u V y v V y es un escalar, entonces (u+ v) = u+ v.(x) Si u V , entonces 1u = u.

    1.11. Ejemplo. Son espacios vectoriales:

    1. V = Rn = {(x1, x2, . . . , xn) : xi R, i = 1, 2, . . . , n} con las operaciones definidas as:(x1, x2, . . . , xn) + (y1, y2, . . . , yn) = (x1 + y1, x2 + y2, . . . , xn + yn)

    (x1, x2, . . . , xn) = (x1, x2, . . . , xn) .2. V = Mmn, el conjunto de matrices m n con las operaciones definidas en la seccin 1.1.

    5

  • 1.2. Espacios vectoriales Preliminares

    3. V = F(R,R), el conjunto de funciones de R en R con las operaciones definidas as :(f + g)(t) = f(t) + g(t) , t R .

    (f)(t) = f(t) , t R .4. V = Pn, el conjunto de los polinomios de grado menor o igual que n con las operaciones definidas

    en el ejemplo anterior.

    Como se establece en la definicin, un espacio vectorial (real) es un tripla que consta de un conjunto V yde dos operaciones con ciertas propiedades. Cuando no haya lugar a confusin o cuando no sea necesarioexplicar las operaciones mencionadas, se har referencia simplemente al espacio vectorial V.

    1.12. Definicin. Sea V un espacio vectorial y W un subconjunto no vaco de V. Se dice que un W essubespacio de V , si W, junto con las operaciones definidas en V , es un espacio vectorial.

    1.13. Definicin. Sean V un espacio vectorial, v0 un elemento de V y W es un subespacio de V . Elsubconjunto determinado as:

    L = {v V : v = v0 +w, para w W },es denominado una variedad lineal de V .

    El siguiente concepto es bsico en el estudio de los espacios vectoriales. En particular, servir para carac-terizar ciertos subespacios de un espacio vectorial.

    1.14. Definicin. Sean v1, v2, . . . , vn vectores de un espacio vectorial V . Se dice que un vector v V escombinacin lineal de los vectores v1, v2, . . . , vn, si existen escalares 1, 2, . . . , n tales que:

    v = 1v1 + 2v2 + + nvn =nXi=1

    ivi .

    1.15. Teorema. Sea W un subconjunto no vaco de un espacio vectorial V . Entonces, W es un subespaciode V sii W es cerrado bajo la operacin suma de vectores y la multiplicacin por un escalar, es decir, sii

    1. Si u W y v W , entonces u+ v W .2. Si u W y R, entonces u W .

    1.16. Teorema. Si U y W son subespacios de un espacio vectorial V , entonces:

    1. La interseccin de U con W ; U W es un subespacio vectorial de V .2. La suma de U con W ; definida por

    U +W = {v V : v = u+w, con u U y w W },es un subespacio vectorial de V .

    1.17. Teorema. Sea C un conjunto no vaco de vectores de un espacio vectorial V . El conjunto de todaslas combinaciones lineales de los vectores de C;

    W = {v V : v =kXi=1

    ivi; k N, vi C y i R, i = 1, 2, . . . , k}

    es un subespacio de V.

    6

  • Preliminares 1.2. Espacios vectoriales

    Sea C un conjunto no vaco de vectores de un espacio vectorial V . El subespacio de V, de todas lascombinaciones lineales de los vectores de C mencionado en el teorema anterior, es denominado el espaciogenerado por los vectores de C o simplemente, espacio generado por C. Cuando C = {v1, v2, . . . , vn} (esfinito), este espacio ser denotado por v1, v2, . . . , vn o por gen{v1, v2, . . . , vn}.Cuando consideramos un conjunto C de vectores de un espacio vectorial, es a veces importante determinarcundo algn vector o algunos de los vectores de C se pueden expresar como combinaciones lineales de losrestantes vectores en C. Para ello, necesitamos de la definicin de dependencia lineal de un conjunto devectores y algunos resultados sobre ella.

    1.18. Definicin (Independencia lineal). Sea C = {v1, v2, . . . , vn} un conjunto de vectores (distintos)de un espacio vectorial V . Se dice que C es linealmente dependiente o que los vectores v1, v2, . . . , vn sonlinealmente dependientes, si existen escalares 1, 2, . . . , n no todos nulos tales que:

    0 = 1v1 + 2v2 + + nvn =nXi=1

    ivi ,

    en caso contrario, se dice que C es linealmente independiente o que los vectores v1, v2, . . . , vn son lineal-mente independientes. Es decir; C es linealmente independiente, si para todos los escalares 1, 2, . . . , n;0 =

    Pni=1 ivi , implica

    1 = 2 = . . . , = n = 0 .

    1.19. Teorema. En un espacio vectorial V se tiene:

    1. Todo conjunto que contenga el vector nulo, 0, es linealmente dependiente.2. Todo conjunto que contenga un subconjunto linealmente dependiente es linealmente dependiente.3. Todo subconjunto de un conjunto linealmente independiente, es linealmente independiente.4. Un conjunto de vectores C = {v1, v2, . . . , vn}, n 2, es linealmente dependiente sii uno de los

    vectores de C es combinacin lineal de los restantes vectores de C.

    1.2.1. Bases y dimensin. Dado un espacio vectorial V, es til determinar un subconjunto B deV que sea linealmente independiente y que genere al espacio V ; un tal conjunto B se denomina base de V.

    Se dice que un espacio vectorial V es de dimensin finita, si existe un conjunto finito C de vectores de V , talque el espacio generado por C en V . En caso contrario, se dice que dicho espacio tiene dimensin infinita.Ejemplos de stos ltimos son: el conjunto de funciones de R en R, o el conjunto de todos los polinomios.En lo que sigue, se consideran slo espacios de dimensin finita.

    1.20. Definicin (Base). Sea B un conjunto de vectores de un espacio vectorial V. Se dice que B es unabase de V si se tienen las dos condiciones:

    (i) El espacio generado por B es V .(ii) El conjunto B es linealmente independiente.

    Si un espacio vectorial V tiene una base B1 = {v1, v2, . . . , vn} compuesta por un nmero ninito n devectores, entonces se puede demostrar, que cualquier otra base B2 de V tiene exactamente n elementos. Adicho nmero comn se le llama dimensin del espacio V y se escribe dimV = n. El siguiente teorema resumealgunos resultados importantes sobre espacios vectoriales (bases, conjuntos lienalmente independientes,conjuntos generadores, etc.).

    1.21. Teorema. Sea V un espacio vectorial de dimensin n.

    1. Si B = {v1, v2, . . . , vn} es un conjunto de n vectores de V, entonces:a) B es una base de V sii B es linealmente independiente.b) B es una base de V sii B genera a V .

    7

  • 1.2. Espacios vectoriales Preliminares

    2. Si C = {u1, u2, . . . , ur} es un conjunto linealmente independiente, entonces r n.3. Si C = {u1, u2, . . . , ur} es un conjunto linealmente independiente, con r < n, entonces existen

    n r vectores de V ; w1, w2, . . . , wnr, tales que B = {u1, u2, . . . , ur, w1, . . . , wnr} es unabase de V.

    4. Si C = {u1, u2, . . . , ur} genera a V entonces r n.5. Si el conjunto C = {u1, u2, . . . , ur} genera a V y r > n, entonces existen n r vectores de C;

    denotados por w1, w2, . . . , wnr, tales que B = C \{w1, w2, . . . , wnr} es una base de V.6. Si W es un subespacio de V entonces dimW n. Si dimW = n, entonces W = V.

    1.22. Teorema. Si U y W son subespacios de un espacio vectorial V entonces

    dim(U +W ) = dimU + dimV dim(U W ) .1.23. Nota. En el teorema anterior si U W = {0}, al espacio U +W de V se le denomina suma directade U con W y se escribe U W en lugar de U +W . En este caso, cada vector v U W se puede expresarde manera nica como suma de un vector u U y un vector w W ; es decir existen vectores nicos u Uy w W tales que v = u+w. Adems se tiene que

    U W = {0} sii dim(U +W ) = dimU + dimV .1.24. Teorema. Si U es un subespacio de un espacio vectorial V , entonces existe un subespacio W de Vtal que U W = V.

    El subespacio W del teorema anterior no es necesariamente nico y es llamado un complemento de U.Tambin se dice que U y W son subespacios complementarios.

    1.25. Definicin. Sea W un subespacio de un espacio vectorial V, v0 un vector en V y L la variedad

    L = {v V : v = v0 +w, w W}.Si dimW = k, entonces se dice que la variedad lineal L tiene dimensin k.

    1.2.2. Coordenadas. El concepto de coordenadas de un vector respecto de una base es til en elestudio de las transformaciones lineales. Para introducir este concepto es necesario definir primero lo que esuna base ordenada de un espacio vectorial V. En la definicin 1.20 era irrelevante en qu orden aparecieralos elementos de una base. Sin embargo, a partir de ahora el orden ser importante.

    1.26. Definicin (Base ordenada). Si v1, v2, . . . , vn es una sucesin finita de vectores linealmente inde-pendientes de un espacio vectorial V, que generan a V , entonces se dice que B = {v1, v2, . . . , vn} es unabase ordenada de V.

    1.27. Teorema. Si B = {v1, v2, . . . , vn} es una base ordenada de V , entonces para cada vector v Vexisten escalares 1, 2, . . . , n nicos tales que

    v = 1v1 + 2v2 + + nvn =nXi=1

    ivi ,

    1.28. Definicin. Sea B = {v1, v2, . . . , vn} una base ordenada de un espacio vectorial V . Sea v un vectorde V y sean 1, 2, . . . , n los escalares nicos tales que v =

    Pni=1 ivi , el vector (vector columna) de

    coordenadas de v respecto de la base ordenada B se denota por [v]B y se define as:

    [v]B =

    2666412...n

    37775 .8

  • Preliminares 1.2. Espacios vectoriales

    Si u y v son dos vectores de V y si es un escalar, entonces [u]B = [u]B y [u+ v]B = [u]B + [v]B .

    De otro lado, a cada vector n 1 (matriz n 1) c = [ 1 2 n] T le corresponde un nico vectorv de V tal que [v]B = c, a saber v =

    Pni=1 ivi.

    As, cada base ordenada B de V determina una correspondencia biunvoca, v [v]B , entre los espacios V yMn1, que preserva las suma de vectores y la multiplicacin de un escalar por un vector. Ms an, preservala independencia lineal; sto es, el conjunto C = {u1, u2, . . . , uk} es un conjunto de vectores linealmenteindependientes de V sii el conjunto C = {[u1]B , [u2]B , . . . , [uk]B} es un conjunto de vectores linealmenteindependientes de Mn1.

    En el caso en que V = Rn y B = {e1, e2, . . . , en} sea la base cannica, es decir e1 = (1, 0, 0, . . . , 0),e2 = (0, 1, 0, . . . , 0),. . . , en = (0, 0, 0, . . . , 1), la mencionada correspondencia est dada por

    x = (x1, x2, . . . , xn) [x]B =

    26664x1x2...xn

    37775 .En algunas situaciones resulta conveniente tener presente esta correspondencia, la cual se usa en este textoidentificando a x con [x]B .

    1.2.3. Producto interno. Bases ortonormales. En este apartado se consideran los conceptos deproducto interno y de bases ortonormales, lo que ser particularmente tiles en el captulo 3 al tratar ladiagonalizacin de matrices simtricas.

    1.29.Definicin (Producto interno). Sea V un espacio vectorial. Sean adems u, v y w vectores arbitrariosde V y un escalar real. Un producto interno en V es una funcin ; : V V R que satisface laspropiedades:

    (i) u;v = v;u.(ii) u;u 0 y u;u = 0 si y slo si u = 0.(iii) u;v = u;v.(iv) u+ v;w = u;w+ v;w.

    Observacin. Si B es una base ordenada de un espacio vectorial V , entonces la funcin ; : V V Rdefinida por u;v = [u]TB [v]B es un producto interno. En particular, si V = Rn y B es la base cannicade Rn, se tiene que

    x;y = [x]TB [y]B = x1y1 + x2y2 + + xnyn ,donde x = (x1, x2, . . . , xn) y y = (y1, y2, . . . , yn).

    En lo que sigue se considera a Rn con este producto interno (producto escalar) y a veces se escribe x y oxTy para indicar a x;y.

    Si ; es un producto interno sobre un espacio vectorial V , la norma o longitud de un vector v de V sedenota por v y se define as: v = pv;v. Cuando v = 1, se dice que v es un vector unitario.Nota. En lo que resta de este texto, cuando se use la norma v de un vector v Rn se estar haciendoreferencia a la norma euclidiada, es decir, si v es el vector de componentes v = [ v1 v2 . . . vn ]T ,entonces

    v =qv21 + v

    22 + + v2n.

    9

  • 1.2. Espacios vectoriales Preliminares

    1.30. Teorema (Desigualdad de Schwarz). Sea V un espacio vectorial con producto interno ; . Para cadapar de vectores u y v de V se satisface la desigualdad

    |u;v| u v .

    Sean u y v vectores de un espacio vectorial V con producto interno ; , si u y v no son nulos, la medidadel ngulo entre ellos se define como

    = arc cos|u;v|u v .

    1.31. Definicin. Sea V un espacio vectorial con producto interno ; :

    1. Se dice que dos vectores u y v de V son ortogonales si u;v = 0.2. Se dice que un conjunto C = {v1, v2, . . . , vn} de vectores de V es ortogonal si vi;vj = 0 para

    i 6= j, i, j = 1, 2, . . . , n.3. Se dice que un conjunto C = {v1, v2, . . . , vn} de vectores de V es ortonormal si C es ortogonal y

    cada vector de C es unitario, o sea si:

    vi;vj = ij =(

    1 si i = j

    0 si i 6= j ; i, j = 1, 2, . . . , n .

    4. Se dice que dos conjuntos no vacos, C1 y C2, de vectores son ortogonales, si para cada par devectores u C1 y v C2, u;v = 0.

    1.32. Teorema. Sea V un espacio vectorial con producto interno ; . Si C = {v1, v2, . . . , vn} es unconjunto ortogonal que no contiene al vector 0, entonces C es linealmente independiente.

    1.33. Teorema (Proceso de ortogonalizacin de Gram-Schmidt). Sea W un subespacio no nulo de unespacio vectorial V de dimensin finita k con producto interno ; y sea B = {w1, w2, . . . , wk} una basede W. Entonces C = {v1, v2, . . . , vk} es una base ortogonal de W y C = {v1 , v2 , . . . , vk} es una baseortonormal de W , donde:

    v1 = w1

    v2 = w2 w2;v1v1;v1 v1

    v3 = w3 w3;v1v1;v1 v1 w3;v2v2;v2 v2

    ...

    vk = wk k1Xi=1

    wk;vivi;vi vi ,

    y donde vi =vivi para i = 1, 2, . . . , k.

    1.34. Teorema. Sean v1, v2, . . . , vk vectores no nulos de un espacio vectorial V de dimensin n > k, conproducto interno ; . Si C1 = {v1, v2, . . . , vk} es un conjunto ortogonal (respectivamente ortonormal),entonces existe un conjunto ortogonal (respectivamente ortonormal) C2 = {w1, w2, . . . , wnk} de vectoresde V tal que B = C1 C2 es una base ortogonal (ortonormal) de V. Ms an, si U = v1, v2, . . . , vk y siW = w1, w2, . . . , wnk entonces V = U W y adems, U y W son ortogonales.

    10

  • Preliminares 1.3. Transformaciones lineales

    1.3. Transformaciones lineales

    En esta seccin se consideran los aspectos ms importantes sobre las transformaciones lineales. En lo quesigue; U, V y W denotarn espacios vectoriales.

    1.35. Definicin. Una funcin T : U V es una transformacin lineal, si para cualquier para de vectoresu1, u2 en U y todo escalar , se tiene que:

    (i) T (u1 + u2) = T (u1) + T (u2)(ii) T (u1) = T (u1).

    1.36. Ejemplo. Algunos ejemplos de transformaciones lineales son:1. Para cada U, la funcin idntica I : U U, u I(u) = u.2. Para cada matriz A Mmn, la funcin A : Rn Rm, definida por x y = Ax.

    1.37. Teorema. Sean U y V espacios vectoriales, B = {u1, u2, . . . , un} una base de U y T : U V esuna transformacin lineal. Entonces T queda determinada por los vectores T (u1), T (u2), . . . , T (un).

    Asociados a toda transformacin lineal hay dos subespacios importantes a saber; su ncleo y su imagen.El primero de ellos corresponde a todos lo elementos del espacio U que son transformados en el elementonulo del espacio V ; el segundo, corresponde a todos los elementos del espacio V que tienen al menos unapreimagen en el espacio U. En forma ms precisa tenemos

    1.38. Definicin. Sea T : U V es una transformacin lineal.1. El ncleo de T se denota por N (T ) y se define as:

    N (T ) = {u U : T (u) = 0} .2. La imagen de T se denota por Img(T ) y se define as:

    Img(T ) = {T (u) : u U} .1.39. Definicin. Sea T : U V una transformacin lineal.

    1. Se dice que T es inyectiva (biunvoca o uno a uno), si dos elementos distintos u1, u2 U , tienenimagen distinta. Esto es, si y slo si

    u1 6= u2 implica T (u1) 6= T (u2); para todo u1, u2 U.2. Se dice que T es sobreyectiva (o simplemente sobre), si cada elemento del espacio V posee al menos

    una preimagen en U. Esto es si y slo si

    Para todo v V existe un u U tal que T (u) = v.

    El siguiente teorema resume algunos aspectos bsicos de las transformaciones lineales.

    1.40. Teorema. Sea B = {u1, u2, . . . , un} un subconjunto de vectores de U y sea T : U V unatransformacin lineal:

    1. N (T ) es un subespacio vectorial de U.2. T es inyectiva sii N (T ) = {0} .3. Img(T ) es un subespacio vectorial de V.4. Si B es una base de U , entonces {T (u1), T (u2), . . . , T (un)} genera al espacio Img(T ).5. Si T es inyectiva y B es linealmente independiente, entonces el conjunto {T (u1), T (u2), . . . , T (un)}

    es linealmente independiente en V .6. dimN (T ) + dim Img(T ) = dimU .

    A la dimensin de N (T ) se le llama nulidad de T y a la dimensin de Img(T ) se llama rango de T.11

  • 1.3. Transformaciones lineales Preliminares

    1.3.1. Matriz de una transformacin lineal referida a un par de bases ordenadas. A cadatransformacin lineal se le puede asignar una matriz A, la cual est determinada por las bases de los espaciosvectoriales involucrados en dicha transformacin. Se ver en esta seccin, que una tal asignacin simplificarmuchos clculos. Es decir, ser ms conveniente trabajar con la matriz asociada a una transformacin lineal(referida a ciertas bases), que con la transformacin lineal misma.

    1.41. Definicin. Sean U y V espacios vectoriales, T : U V una transformacin lineal y sean B1 ={u1, u2, . . . , un} y B2 = {v1, v2, . . . , vm} bases ordenadas de U y de V respectivamente. La matriz de Treferida a las bases B1 y B2 se denotar por [T ]B1B2 y corresponde a la matriz m n dada por:

    [T ]B1B2 =

    [T (u1)]B2 [T (u2)]B2 [T (un)]B2.

    1.42. Teorema. Sean U y V espacios vectoriales, T : U V una transformacin lineal y sean B1 ={u1, u2, . . . , un} y B2 = {v1, v2, . . . , vm} bases ordenadas de U y de V respectivamente. Para cadau U se tiene que:

    [T (u)]B2 = [T ]B1B2 [u]B1 .

    Nota. Por el teorema anterior y por el teorema 1.37, la transformacin lineal T queda completamentedeterminada por el conocimiento de las bases B1 y B2, y de la matriz [T ]B1B2 .

    1.3.2. lgebra de transformaciones lineales. Inversa de una transformacin lineal. En estaseccin se consideran las operaciones de suma, multiplicacin por un escalar y composicin entre transfor-maciones lineales. As mismo se abordar la relacin existente entre las matrices asociadas correspondientes.En este apartado U, V y W denotan espacios vectoriales.

    1.43. Teorema. Sean T : U V y S : U V transformaciones lineales y un escalar. Sean adems B1y B2 bases ordenadas de U y V, respectivamente:

    1. La funcin suma de T y S; (T + S) : U V, definida por (T + S)(u) = T (u) + S(u) es unatransformacin lineal. Ms an

    [T + S]B1B2 = [T ]B1B2 + [S]B1B2 .

    2. La funcin mltiplo escalar de T ; (T ) : U V, definida por (T )(u) = T (u) es una transfor-macin lineal. Ms an

    [T ]B1B2 = [T ]B1B2 .

    12

  • Preliminares 1.4. Espacios fundamentales de matrices

    Nota. Sean U , V dos espacios vectoriales, se denota con L(U, V ) al conjunto de todas las transformacioneslineales entonces:

    1. El conjunto L(U, V ) junto con las operaciones mencionadas en el teorema anterior es un espaciovectorial. adems, si dimU = n y dimV = m entonces dimL(U, V ) = m n.

    2. De la misma forma como una base B1 de U determina la correspondencia biunvoca entre los es-pacios vectoriales V y Mm1, dada por, v [v]B2 ; las bases B1 y B2 de U y V , determinan lacorrespondencia biunvoca entre los espacios L(U, V ) y Mmn, la cual est dada por T [T ]B1B2 .Esta correspondencia preserva la suma de vectores y la multiplicacin de un escalar por un vec-tor, tal como se establece en el teorema anterior. En otras palabras, esta correspondencia es unatransformacin lineal.

    1.44. Teorema. Sean T : U V y S : V W transformaciones lineales. Entonces, la composicinS T : U W es una transformacin lineal. Si adems, B1, B2 y B3 representan bases ordenadas para losespacios U, V y W respectivamente, entonces se tiene que:

    [S T ]B1B3 = [S]B2B3 [T ]B1B2 .1.45. Teorema. Si T : U V es una transformacin lineal biyectiva, entonces la funcin inversa de T ,T1 : V U es una transformacin lineal y la matriz [T ]B1B2 es invertible. Adems,

    T1B2B1

    =T1B1B2

    .

    1.3.3. Matrices semejantes. Cambio de baseo por gen{v1, v2, . . . , vn}. Los conceptos de ma-trices semejantes y cambio de base sern particularmente tiles en el captulo 4 para el estudio de los valorespropios y los vectores propios de una transformacin lineal.

    1.46. Definicin. [Matrices semejantes]Sean A y B matrices cuadradas de orden n, se dice que A y B sonsemejantes, si existe una matriz invertible P tal que B = P1AP.

    1.47. Definicin. [Matriz cambio de base]Sean B1 y B2 bases ordenadas del espacio vectorial U, y seaI : U U la transformacin lineal idntica. La matriz P = [I]B1B2 se denomina matriz de cambio de basede la base B1 a la base B2, (sto debido a lo enunciado por el teorema 1.42, [u]B2 = [I]B1B2 [u]B1).

    1.48. Teorema. Sean T : U U una transformacin lineal y B1 y B2 bases ordenadas de U .

    1. La matriz de cambio de base de la base B1 a la base B2, P = [I]B1B2 , es invertible y su inversa esla matriz de cambio de base de la base B2 a la base B1.

    2. Las matrices A = [T ]B2B2 y B = [T ]B1B1 son matrices semejantes, adems se tiene

    [T ]B1B1 = [I]1B1B2

    [T ]B2B2 [I]B1B2 = P1 [T ]B2B2 P .

    1.4. Espacios fundamentales de una matriz. Rango de una matriz. Sistemas de ecuacioneslineales

    En esta seccin se consideran los llamados espacios fundamentales de una matriz A. Dos de estos espaciosson precisamente el ncleo y la imagen de la transformacin lineal x y = Ax, los cuales estn relacionadoscon el conjunto solucin de un sistema de ecuaciones lineales Ax = y. El lector recordar de los resultadosde un primer curso de lgebra lineal, que el espacio fila y es espacio columna de A tienen igual dimensin.A ese nmero comn se le denomina rango de A y se denota por (A).

    Sea A una matriz mn. El subespacio de Rn generado por las filas de A se denomina espacio fila de A y lodenotamos por F(A); esto es, F(A) = A1, A2, . . . , Am. El subespacio de Rm generado por las columnasde A se denomina espacio columna de A y lo denotamos por C(A); esto es, C(A) = A1, A2, . . . , An. El

    13

  • 1.4. Espacios fundamentales de matrices Preliminares

    espacio formado todas soluciones de un sistema homogneo de ecuaciones lineales Ax = 0 se denominaespacio nulo de una matriz, esto es, el espacio nulo es el conjunto

    N (A) = {x Rn : Ax = 0 }.De otro lado, el subespacio de Rn;

    Img(A) = {Ax : x Rn}= {y Rm : y = Ax para algn x Rn} .

    se denomina imagen de A.

    1.49. Teorema. Para cualquier matriz A se tiene que

    dimF(A) = dim C(A) .1.50. Teorema. Sea A una matriz arbitraria entonces:

    1. F(A) y N (A) son ortogonales. sto es, sus elementos son ortogonales entre si.2. C(A) y N (At) son ortogonales. sto es, sus elementos son ortogonales entre si.

    1.51. Teorema. Sean A y B matrices de tamao adecuado, tales que las operaciones siguientes estndefinidas.

    1. C(AB) C(A) y F(AB) F(B).2. Si P y Q son matrices invertibles de tamao apropiado

    a) C(A) = C(AQ).b) F(A) = F(PA).

    3. C(A+B) C(A) + C(B) y F(A+B) F(A) + F(B).4. Para cualquier matriz A se tiene que: N (A) = N (ATA).

    Nota. Segn el inciso 2(b) del teorema anterior y segn el teorema 1.8, si R es la forma escalonada reducidade la matriz A, entonces F(A) = F(R).1.52.Teorema. Sea A una matrizmn. La imagen de la transformacin lineal A : Rn Rm, x y = Ax,es el espacio columna de A; esto es,

    Img(A) = C(A) = {Ax : x Rn} .Nota. De acuerdo con el inciso (3) del teorema 1.40 y de acuerdo con los teoremas 1.49 y 1.52: si A esuna matriz m n, entonces

    dimN (A) + dimF(A) = n.Anlogamente, puesto que F(At) = C(A),

    dimN (AT ) + dim C(A) = m.De otra parte, con base en la nota 1.23,

    Rn = F(A)N (A) y Rm = C(A)N (AT ),es decir, los subespacios F(A) y N (A) de Rn son complementarios. As mismo, los subespacios C(A) yN (At) de Rm son complementarios.

    Esto implica entonces, que cada x Rn y cada y Rm se pueden expresar en forma nica as: x = f + ny y = c+u, donde f , n, c y u pertenecen a F(A), N (A), C(A) y N (AT ), respectivamente (ver figura 1.1).

    Nota. Segn las definiciones, el ncleo de la transformacin lineal x y = Ax es el espacio nulo de A.14

  • Preliminares 1.4. Espacios fundamentales de matrices

    IRm

    f

    x=f+nAx=Af

    c

    u

    y=c+u

    n

    F C

    N N

    (A) (A)

    (A) T

    Rn

    I

    (A )

    Figura 1.1. Transformacin lineal

    De otro lado, si definimos el rango de la matriz A, (A), como el rango de la transformacin lineal x y = Ax, entonces se tiene que rango de A es la dimensin del espacio columna de A.

    1.53. Teorema. Sea A una matriz m n, entonces:

    1. (A) es igual al nmero mximo de filas linealmente independientes de la matriz A.2. (A) es el nmero mximo de columnas linealmente independientes de la matriz A.3. (A) es el nmero de filas no nulas de la forma escalonada reducida de la matriz A.4. Para cualquier matriz A, (A) = (AT ) = (AAT ) = (ATA).5. Si A es una matriz m n y B es una matriz n k, entonces (AB) (A) y (AB) (B).6. Si P es una matriz invertible mm y Q es una matriz invertible nn, entonces (A) = (PA) =

    (AQ) = (PAQ).7. Si A y B son matrices m n, entonces (A+B) (A) + (B).

    1.54. Teorema. Sea A una matriz m n y sea y un vector m 1.

    1. El sistema de ecuaciones Ax = y tiene solucin sii y C(A).2. El sistema de ecuaciones Ax = y tiene solucin sii el rango de la matriz A es igual al rango de la

    matriz aumentada del sistema [A | y], es decir sii (A) = ([A|y]).3. Para el sistema de ecuaciones lineales Ax = y se da una y slo una de las opciones siguientes:

    a) El sistema no tiene solucin, en cuyo caso y / C(A).b) El sistema tiene infinitas soluciones, en cuyo caso su conjunto solucin es una variedad lineal

    de la formaS = {xp + xh : xh N (A)} ,

    donde xp es una solucin particular del sistema; sto es, Axp = y, adems, dimN (A) > 0.c) El sistema tiene una nica solucin. En este caso se tiene que N (A) = {0}.

    El teorema siguiente recoge, tericamente, el mtodo de Gauss-Jordan para resolver sistemas de ecuacioneslineales.

    1.55. Teorema. Sean A una matriz m n y y un vector n 1. Si P es una matriz invertible m m talque PA = R, donde R es la forma escalonada reducida de A, entonces Ax = y sii Rx = Py; esto es, lossistemas de ecuaciones lineales Ax = y y Rx = Py tienen el mismo conjunto solucin. En particular, siy = 0; Ax = 0 sii Rx = 0.

    1.56. Teorema (Resumen). Sea A una matriz cuadrada de orden n. Las afirmaciones siguientes son equiv-alentes:

    1. det(A) 6= 0.2. A es invertible.3. La forma escalonada de A en In.

    15

  • 1.4. Espacios fundamentales de matrices Preliminares

    4. Los vectores fila de A son linealmente independientes.5. El espacio fila de A es Rn, es decir, F(A) = Rn.6. Los vectores columna de A son linealmente independientes.7. El espacio columna de A es Rn, es decir, C(A) = Rn.8. El rango de la matriz A es n.9. N (A) = {0}.

    10. El sistema de ecuaciones lineales Ax = 0 tiene la nica solucin x = 0.11. Para todo y Rn, El sistema de ecuaciones lineales Ax = y tiene solucin.

    Por ltimo, consideramos un mtodo para calcular una base de cada uno de los espacios fundamentales deuna matriz m n arbitraria A. El mtodo consiste en efectuar los pasos siguientes:

    Paso 1 Forme la matriz [AT | In].

    Paso 2 Efecte operaciones elementales sobre las filas de la matriz anterior hasta obtener la formaescalonada reducida. Al final se obtiene la matriz puede describir por bloques as:24 Erm Prn

    0(nr)m P(nr)n

    35donde r = (A).

    Los vectores fila de la matriz Erm conforman una base para C(A) y los vectores fila de lamatriz P(nr)n conforman una base para N (A).

    Al llevar a cabo el paso 2 con la matriz [A | Im] se obtienen sendas bases para C(AT ) = F(A) y N (AT ).

    16

  • CAPTULO 2

    Matrices Particionadas. Traza de una Matriz

    Este captulo consta de tres secciones. Las dos primeras versan sobre matrices particionadas. La terceraseccin trata sobre la traza de una matriz. En este captulo se consignarn los principales resultados sobrela traza de una matriz. Existen razones para querer particionar una matriz A, algunas de ellas son: (i)La particin puede simplificar la escritura de A. (ii) La particin puede exhibir detalles particulares einteresantes de A. (iii) La particin puede permitir simplificar clculos que involucran la matriz A.

    2.1. Submatrices. Operaciones con matrices particionadas

    A veces es necesario considerar matrices que resultan de eliminar algunas filas y/o columnas de algunamatriz dada, como se hizo por ejemplo, al definir el menor correspondiente al elemento aij de una matrizA = [aij ]mn (vase el apartado 1.1.3 del captulo 1).

    2.1. Definicin. Sea A una matriz. Una submatriz de A es una matriz que se puede obtener al suprimiralgunas filas y/o columnas de la matriz A.

    2.2. Ejemplo. Las matrices S1, S2 y S3 dadas a continuacin, son submatrices de la matriz

    A =

    24 1 2 3 45 6 7 89 0 1 2

    35 .S1 =

    1 2 49 0 2

    (suprimiendo en A la fila 2 y la columna 3)

    S2 =

    1 2 3 49 0 7 8

    (suprimiendo en A la fila 3)

    S3 =

    2 36 7

    (suprimiendo en A la fila 3 y las columnas 1 y 4).

    Dada una matriz A = [aij ]mn; mediante un sistema de rectas horizontales o verticales se puede "parti-cionarla" en submatrices de A (Matriz particionada), como se ilustra en el siguiente ejemplo:266664

    a11 a12 a13 a14a21 a22 a23 a24a31 a32 a33 a34a41 a42 a43 a44a51 a52 a53 a54

    37777517

  • 2.1. Submatrices Matrices particionadas

    Hecho esto, se puede escribir, usando una notacin obvia:

    A =

    A11 A12 A13A21 A22 A23

    donde

    A11 =

    24 a11a21a31

    35 , A12 =24 a12 a13a22 a23a32 a33

    35 , A13 =24 a14a24

    a34

    35 ,

    A21 =

    a41a51

    , A22 =

    a42 a43a52 a53

    , A23 =

    a44a55

    .

    Debe ser claro para el lector, que una matriz puede ser particionada de diferentes maneras, por ejemplo:

    A =

    24 1 2 3 4 52 0 3 0 11 2 3 1 1

    35 =24 1 2 3 4 52 0 3 0 11 2 3 1 1

    35=

    24 1 2 3 4 52 0 3 0 11 2 3 1 1

    35

    Tal vez, la principal conveniencia de particionar matrices, es que se puede operar con matrices particionadascomo si las submatrices fuesen elementos ordinarios, tal como se establece en el teorema siguiente.

    2.3. Teorema.

    1. Si las matrices A y B estn particionadas as:

    A =

    26664A11 A12 A1nA21 A22 A2n...

    .... . .

    ...Am1 Am2 Amn

    37775 , B =26664

    B11 B12 B1nB21 B22 B2n...

    .... . .

    ...Bm1 Bm2 Bmn

    37775y si las sumas Aij +Bij estn definidas para i = 1, 2, . . . ,m, j = 1, 2, . . . , n, entonces

    A+B =

    26664A11 +B11 A12 +B12 A1n +B1nA21 +B21 A22 +B22 A2n +B2n

    ......

    . . ....

    Am1 +Bm1 Am2 +Bm2 Amn +Bmn

    37775 .2. Si las matrices A y B estn particionadas as:

    A =

    26664A11 A12 A1nA21 A22 A2n...

    .... . .

    ...Am1 Am2 Amn

    37775 y B =26664B11 B12 B1sB21 B22 B2s...

    .... . .

    ...Bn1 Bn2 Bns

    3777518

  • Matrices particionadas 2.1. Submatrices

    y si el nmero de columnas de cada bloque Aik es igual al nmero de filas de cada bloque Bkj;i = 1, 2, . . . ,m, k = 1, 2, . . . , n, j = 1, 2, . . . , s, entonces

    AB =

    26664C11 C12 C1sC21 C22 C2s...

    .... . .

    ...Cm1 Cm2 Cms

    37775 ,

    donde Cij =nXk=1

    AikBkj.

    3. Si la matriz A est particionada como en (1) y si es un escalar, entonces

    A =

    26664A11 A12 A1nA21 A22 A2n...

    .... . .

    ...Am1 Am2 Amn

    37775 .4. Si la matriz A est particionada como en (1) , entonces

    AT =

    266664AT11 A

    T21 ATm1

    AT12 AT22 ATm2

    ......

    . . ....

    AT1n AT2n ATmn

    377775 .

    Los incisos (1), (3) y (4) del teorema anterior son fciles de verificar. La demostracin del inciso (2)es laboriosa y no se haran. Sin embargo, el lector interesado puede consultar una indicacin de dichademostracin en [12] pgina 19.

    A continuacin se ilustrar el inciso (2) de dicho teorema.

    Si

    A =

    24 1 0 0 0 32 0 0 3 41 2 1 0 0

    35 =24 A11 A12 A13A21 A22 A23

    35y

    B =

    2666641 2

    0 01 3

    0 11 2

    377775 =266664B11

    B21

    B31

    377775entonces

    AB =

    24 A11B11 +A12B21 +A13B31A21B11 +A22B21 +A23B31

    35 =24 4 82 7

    2 5

    3519

  • 2.1. Submatrices Matrices particionadas

    pues

    A11B11 =

    12

    1 2

    =

    1 22 4

    ,

    A12B21 =

    0 00 0

    0 01 3

    =

    0 00 0

    ,

    A13B31 =

    0 33 4

    0 11 2

    =

    3 64 1

    ,

    A21B11 = [1]

    1 2

    =

    1 2

    A22B21 =

    2 1 0 0

    1 3

    =

    1 3,

    A23B31 =

    0 0 0 1

    1 2

    =

    0 0.

    2.1 Ejercicios

    1. Dadas A Mmn y B Mnk, muestre que:a) La fila i de AB es igual a la fila i de A por la matriz B; en smbolos (AB)i = AiB (Sug.:

    Particione la matriz A por filas).b) La columna j de AB es igual a la matriz A por la columna j de B; en smbolos (AB)j = ABj

    (Sugerencia: Particione la matriz B por columnas).c) Si A tiene una fila nula, entonces AB tiene una fila nula.d) Si B tiene una columna nula, entonces AB tiene una columna nula.

    2. Si A,B Mnn son matrices triangulares superiores (inferiores), muestre que:a) AB es una matriz triangular superior (inferior).b) ABii = AiiBii.

    3. Considere las matrices triangulares superiores por bloques

    M =

    X Y0 Z

    y N =

    U V0 W

    .

    Muestre que si el producto MN est definido, entonces MN es una matriz triangular superior porbloques.

    4. Sean A, B Mnn (R), X,Y Mn1 (R) y , R. Suponga que(A+B)X = X y (AB)Y = Y.

    Si M =A BB A

    , demuestre

    a) MXX

    =

    XX

    b) M

    YY

    =

    YY

    5. Si A, B Mnn (R) y A es simtrica, muestre que la matriz M =

    A BBT A

    es simtrica.

    6. Suponga que las matrices que abajo aparecen son de tamao apropiado, donde I es la matrizidentica y que A11 es una matriz invertible. Encuentre matrices X y Y tales que el producto que

    20

  • Matrices particionadas 2.2. Determinantes

    sigue tiene la forma indicada. Encuentre adems B22.24 I 0 0X I 0Y 0 I

    3524 A11 A12A21 A22A32 A33

    35 =24 B11 B120 B22

    0 B32

    35

    2.2. Determinantes e inversas de algunas matrices especiales

    En algunas situaciones es conveniente utilizar matrices particionadas para describir determinantes e inversasde ciertas matrices en trminos de las submatrices. En particular, los teoremas 2.6 y 2.11, son usados en ladeduccin de las distribuciones condicionales de un vector aleatorio con distribucin normal multivariante(vase el Teorema 3.6.1 de [4])

    Es bien conocido, que el determinante de una matriz triangular (superior o inferior) es justamente elproducto de los elementos de la diagonal principal. La siguiente proposicin enuncia un resultado anlogopara matrices particionadas.

    2.4. Proposicin. Sean A y C matrices cuadradas,

    1. Si M =A B0 C

    , entonces |M | = |A||C|.

    2. Si M =A 0B C

    , entonces |M | = |A||C|.

    Demostracin. Para la demostracin del literal (1) usamos induccin sobre el orden n de la matrizM.

    Si n = 2 se tiene que |M | = ac = |A| |C| donde

    M =

    A B0 C

    =

    a b0 c

    .

    Suponga ahora que (1) es vlida para n = k y se demostrar que es vlida para n = k + 1.

    SeaM una matriz cuadrada de orden n = k+1 particionada como en (1). Suponga adems que B = [bij ]rsy C = [cij ]ss. Si se denota por Bj a la submatriz de B que se obtiene suprimiendo en B la columna j ypor Cj a la submatriz de C que se obtiene suprimiendo en C la columna j y la fila s, j = 1, 2, . . . , s.

    Ahora, desarrollando el determinante de C por los cofactores de la fila s (vase el Teorema 1.3(1)), seobtiene:

    |C | = cs1(1)s+1|C1|+ cs2(1)s+2|C2|+ . . .+ css(1)s+s|Cs|.

    As mismo, desarrollando el determinante de M por los cofactores de la fila k + 1 se obtiene:

    |M | = cs1(1)2(k+1)s+1A B1

    0 C1

    +

    +cs2(1)2(k+1)s+2A B2

    0 C2

    + . . .+ css(1)2(k+1)s+s

    A Bs

    0 Cs

    21

  • 2.2. Determinantes Matrices particionadas

    Utilizando la hiptesis de induccin se obtiene:

    |M | = (1)2(k+1)2scs1(1)s+1 |A| |C1|+ cs2(1)s+2 |A| |C2|

    + . . .+ css(1)s+s |A| |Cs|

    = |A|cs1(1)s+1|C1|+ cs2(1)s+2|C2|+ . . .+

    +css(1)s+s|Cs|

    = |A| |C| .Lo que completa la demostracin de (1).

    La demostracin de (2) se sigue del hecho de que |M | = |MT | (teorema 1.4(1)) y del inciso (1). Enefecto, se tiene:

    det(M) = det(MT )

    = det

    AT BT

    0 CT

    = det(AT ) det(CT )

    = det(A) det(C)

    2.5. Ejemplo. Use particin de matrices y los resultados de la proposicin anterior para calcular el deter-minante de cada una de las matrices siguientes:

    M =

    24 7 0 04 5 63 7 9

    35 y N =2664

    1 2 4 51 3 6 70 0 2 30 0 3 5

    3775 ,las cuales se pueden particionar respectivamente como sigue:

    M =

    24 7 0 04 5 63 7 9

    35 =24 A 0B C

    35y

    N =

    26641 2 4 51 3 6 7

    0 0 2 30 0 3 5

    3775 =24 A B

    0 C

    35Entonces

    |M | = |7|

    5 67 9

    = 21 y |N | =

    1 21 3

    2 33 5

    = 1.

    22

  • Matrices particionadas 2.2. Determinantes

    El siguiente teorema brinda una alternativa para calcular determinantes de matrices ms generales parti-cionadas por bloques.

    2.6. Teorema. Sean A y D matrices cuadradas y sea M =A BC D

    .

    1. Si D es invertible, entonces |M | = |D| ABD1C .2. Si A es invertible, entonces |M | = |A| D CA1B .Demostracin. Se har slo la demostracin del literal (1), el segundo resultado se verifica de manera

    anloga y se deja como ejercicio al lector.

    Sea S =

    I 0D1C I

    . Entonces MS =

    ABD1C B

    0 D

    . Ahora por el teorema 1.4(9) y por la

    proposicin anterior, se tiene:

    |M | = |M | |I| |I| = |M | |S| = |MS| = |D| ABD1C .

    Los siguientes resultados son consecuencia inmediata de este teorema y sus verificaciones se dejan comoejercicio.

    2.7. Corolario. Sean A, B, C y D matrices cuadradas de orden n y sea M la matriz dada por

    M =

    A BC D

    .

    1. Si D es invertible y si DB = BD, entonces |M | = |DABC|.2. Si A es invertible y si AC = CA, entonces |M | = |AD CB|.3. Si D = 0 y A es invertible, entonces |M | = (1)n |B| |C|.4. Si A = 0 y D es invertible, entonces |M | = (1)n |B| |C|.

    2.8. Ejemplo. Utilizando los resultados del corolario anterior se encuentran los determinantes para lasmatrices M y N dadas por:

    M =

    24 1 2 41 3 51 1 1

    35 y N =2664

    1 2 2 11 3 2 34 5 0 03 3 0 0

    3775 .Se particiona ahora las matrices M y N de froma adecuada.

    Para M tomamos

    24 1 2 41 3 51 1 1

    35 =24 A BC D

    35 , siendo D = [1]. Puesto que D es una matriz invertibleentonces,

    |M | = |D| |ABD1C| = |1| 3 24 2

    = 2 .

    Similarmente para N =

    26641 2 2 11 3 2 3

    4 5 0 03 3 0 0

    3775 =24 A BC 0

    35 , siendo A = 1 21 3

    . Dado que A es invertible

    se tiene que|M | = (1)2 |B| |C| = 12 .

    23

  • 2.2. Determinantes Matrices particionadas

    2.9. Proposicin. Sean A y C matrices cuadradas.

    1. La matriz M =A B0 C

    es invertible sii las matrices A y C son invertibles. Adems, si M es

    invertible entonces

    M1 =A1 A1BC10 C1

    .

    2. La matriz M =A 0B C

    es invertible sii las matrices A y C son invertibles. Adems, si M es

    invertible entonces

    M1 =

    A1 0C1BA1 C1

    .

    La prueba de este resultado se propone como ejercicio. El ejemplo siguiente, ilustra el inciso (1) de laproposicin anterior.

    2.10. Ejemplo. Verifique que la matriz

    M =

    26641 2 1 11 3 1 10 0 2 10 0 5 3

    3775es invertible y calcule su matriz inversa.

    Observando la estructura de la matrizM se puede ver que una buena particin es:M =

    26641 2 1 11 3 1 1

    0 0 2 10 0 5 3

    3775 =24 A B

    0 C

    35 . Puesto que las matrices A y C son invertibles, entonces M tambin lo es y adems,

    M1 =A1 A1BC10 C1

    =

    26643 2 2 11 3 0 00 0 3 10 0 5 2

    3775 .El siguiente teorema presenta una frmula para calcular inversas de matrices ms generales

    2.11. Teorema. Sea B una matriz invertible particionada as:

    B =

    B11 B12B21 B22

    , con B11 y B22 matrices invertibles.

    Si B1 est particionada as:

    B1 =A11 A12A21 A22

    ,

    donde Aii (i = 1, 2), son matrices cuadradas de igual orden que la matriz Bii respectivamente entonces:

    1. Las matrices A11 y A22 son invertibles y sus inversas son las matrices B11,2 = B11 B12B122 B21y B22,1 = B22 B21B111 B12, respectivamente.

    24

  • Matrices particionadas 2.2. Determinantes

    2. La matriz B1 se puede expresar en trminos de B111,2 y B122,1 como sigue

    B1 =

    24 B111,2 B111 B12B122,1B122 B21B111,,2 B122,1

    35 , B1 =

    24 B111,2 B111,2B12B122B122,1B21B111 B122,1

    35 .3. La matriz B1 tambin se puede expresar as:

    B1 =

    24 0 00 B122

    35+24 IkB122 B21

    35 B111,2 Ik B12B122 ,donde k es el tamao de B11.

    Demostracin. Partiendo de la definicin de matrices inversas

    BB1 =B11 B12B21 B22

    A11 A12A21 A22

    =

    I 00 I

    = I

    se obtienen las igualdades

    (2.1)

    (a) B11A11 +B12A21 = I(b) B21A11 +B22A21 = 0(c) B11A12 +B12A22 = 0(d) B21A12 +B22A22 = I

    Premultiplicando ambos miembros de (2.1(b)) por B122 , se sigue:

    B122 B21A11 +A21 = 0, o sea, A21 = B122 B21A11.

    Sustituyendo A21 en (2.1(a)) y factorizando A11, por la derecha, se obtiene`B11 B12B122 B21

    A11 = I .

    Es decir, las matrices B11,2 = B11 B12B122 B21 y A11 son inversas entre si.Por otro lado, si se premultiplica ambos miembros de (2.1(c)) por B111 , se sigue:

    A12 +B111 B12A22 = 0, o sea, A12 = B111 B12A22.

    Sustituyendo A12 en (2.1(d)) y factorizando A22, por la derecha, se obtiene:`B22 B21B111 B12

    A22 = I .

    Es decir, las matrices B22,1 = B22 B21B111 B12 y A22 son inversas una de la otra.Por lo anterior,

    A11 = B111,2 A12 = B111 B12B122,1

    A21 = B122 B21B111,2 A22 = B122,1 .La segunda expresin para B1 del literal 2 se obtiene procediendo de forma anloga, pero partiendo de laigualdad

    B1B =A11 A12A21 A22

    B11 B12B21 B22

    =

    I 00 I

    = I .

    La demostracin del literal 3 se deja como ejercicio.

    25

  • 2.2. Determinantes Matrices particionadas

    A continuacin enunciamos y demostramos un teorema que involucra matrices particionadas y el rango deuna matriz.

    2.12. Teorema. Sea A =A11 A12A21 A22

    , donde A11 es una matriz invertible r r. Si (A) = (A11),

    entonces A22 = A21A111 A12.

    Demostracin. Puesto que A11 es una matriz invertible, entonces (A11) = r (ver teorema 1.56).

    Ahora, las matrices P =

    24 I 0A21A111 I

    35 y Q =24 I A111 A120 I

    35 son invertibles, puesto que |P | =|Q| = 1 6= 0. En consecuencia, por el teorema 1.53, la matriz A y la matriz

    PAQ =

    A11 00 A22 A21A111 A12

    tienen rango r. Puesto que el nmero mximo de filas linealmente independientes de las matrices PAQ y A11es r (vase el teorema 1.53(2)), entonces necesariamente A22 A21A111 A12 = 0, o sea A22 = A21A111 A12.

    2.2 Ejercicios

    1. Utilice matrices particionadas para calcular el determinante y la matriz inversa (si existe) de cadauna de las matrices siguientes:

    M1 =

    26645 3 0 03 2 0 03 2 2 12 1 5 3

    3775 M2 =2664

    3 1 1 12 1 1 10 0 1 10 0 4 5

    37752. Demuestre el inciso (2) del teorema 2.6.3. Demuestre el corolario 2.7.4. Demuestre la proposicin 2.9.5. Sean a, b, c y d escalares no nulos y sea n N. Calcule el determinante y la matriz inversa, cuando

    exista, de la matriz

    M =

    aIn bIncIn dIn

    .

    6. Sean A una matriz cuadrada de orden n y B una matriz cuadrada de orden k. Demuestre que si

    M =

    0 AB C

    o si M =

    C AB 0

    , entonces |M | = (1)nk|A| |B|. (Sug.: Efecte operaciones

    elementales por columnas y use la proposicin 2.4).7. Sean A y B matrices cuadradas.

    a) Dar condiciones necesarias y suficientes para que la matriz

    M =

    0 AB C

    sea invertible. Si M es invertible, exprese M1 en trminos de las matrices A, B y C.

    b) Dar condiciones necesarias y suficientes para que la matriz

    M =

    C AB 0

    sea invertible. Si M es invertible, exprese M1 en trminos de las matrices A, B y C.

    26

  • Matrices particionadas 2.2. Determinantes

    c) Si A Mnn y M =A InIn 0

    , P =

    In 0In In

    , dar una expresin para M1.

    8. Utilice los resultados que obtuvo en el problema anterior para calcular la matriz inversa de cadauna de las matrices siguientes:

    M1 =

    26640 0 2 10 0 5 35 3 3 23 2 2 1

    3775 M2 =2664

    1 1 1 11 1 4 5

    3 1 0 02 1 0 0

    3775 .9. Sean A11, A22 y A33 matrices cuadradas. Demuestre que si

    M =

    24 A11 A12 A130 A22 A230 0 A33

    35 M =24 A11 0 0A21 A22 0A31 A32 A33

    35entonces |M | = |A11||A22||A33|.

    10. Demuestre que siA11, A22 yA33 son matrices invertibles, entonces la matrizM = diag(A11, A22, A33)es invertible y

    M1 =

    24 A111 0 00 A122 00 0 A133

    3511. Sean a R y Ann una matriz invertible, entonces

    det

    a xy A

    = |A| (a xA1y).

    (Sugerencia: Use el teorema 2.6)12. Verifique que

    det

    I AB C

    = det(C BA).

    (Sugerencia: Use el corolario 2.7)13. Muestre que

    det

    In BA Im

    = det

    Im AB In

    y concluya que |Im AB| = |In BA|.

    14. Sean A, B Mnn; M =A BA B

    ; P =

    In 0In In

    ; Q =

    In 0In In

    .

    a) Calcule PMQ y muestre que detM = det(AB) det(A+B).b) Use (a) para calcular detM, donde

    M =

    26641 x 2 1 1

    1 6 x 1 11 1 1 x 21 1 1 6 x

    3775 ; x R.c) En (b), para qu valores de x se cumple que detM = 0?

    15. Sean A Mnn; D Mmm yM =A BC D

    matrices invertibles, con B Mnm y C Mmn.

    a) Muestre que (ABD1C) y (DCA1B) son matrices invertibles (Sugerencia: Use el teorema2.6).

    b) Muestre que:

    (ABD1C)1 = A1 +A1B(D CA1B)1CA1.(Sugerencia: Multiplique ABD1C por la matriz que aparece a la derecha).

    27

  • 2.3. Traza de una matriz Matrices particionadas

    c) Muestre que cuando m = n, B = In y C = In en (b) se obtiene:(AD1)1 = A1 +A1(D A1)1A1.

    d) Muestre que cuando D = Im en (b) se obtiene:

    (ABC)1 = A1 +A1B(I CA1B)1CA1.

    2.3. Traza de una matriz

    En ciertos contextos, la suma de los elementos de la diagonal de una matriz juega un papel importante.Por ejemplo, la traza de una matriz aparece en la evaluacin de las integrales requeridas en el estudio de ladistribucin normal multivariante (vase el teorema 1.10.1 de [3]) y el valor esperado de formas cuadrticas(vase el teorema 4.6.1 de [4]).

    2.13. Definicin. Sea A una matriz cuadrada. La traza de A se denota por Tr(A) y se define como la sumade los elementos de la diagonal principal de A. sto es,

    Tr(A) =

    nXs=1

    Ass .

    2.14. Nota. Puesto que los elementos de la diagonal principal de A son los mismos que los elementos de ladiagonal principal de AT , entonces

    Tr(A) = Tr(AT ) .

    2.15. Teorema. Sean A y B son matrices cuadradas del mismo orden. Si y son escalares, entonces

    Tr(A+ B) = Tr(A) + Tr(B) .

    Demostracin. Usando la estructura de espacio vectorial de las matrices, as como la definicin detraza se tiene:

    Tr(A+ B) =

    nXs=1

    A+ Bss

    =

    nXs=1

    ` Ass + Bss

    =

    nXs=1

    Ass + nXs=1

    Bss= Tr(A) + Tr(B) .

    2.16. Teorema. Si A es una matriz m n y B es una matriz nm , entoncesTr(AB) = Tr(BA) .

    28

  • Matrices particionadas 2.3. Traza de una matriz

    Demostracin. Usando la definicin de traza y la definicin de producto de matrices obtenemos,

    Tr(AB) =

    nXs=1

    ABss

    =

    nXs=1

    mXk=1

    Ask Bks

    =

    mXk=1

    nXs=1

    Bks Ask

    =

    mXk=1

    BAkk = Tr(BA) .

    2.17. Corolario. Sea A una matriz cuadrada de orden n. Si P es una matriz invertible n n, entoncesTr(A) = Tr(P1AP ) = Tr(PAP1).

    Demostracin. Por el teorema anterior,

    Tr(A) = Tr(AI) = Tr(APP1) = Tr(P1AP )

    = Tr(PP1A) = Tr(P1PA) = Tr(PAP1).

    2.18. Corolario. Si A es una matriz m n, entonces

    Tr(AAT ) = Tr(ATA) =

    mXs=1

    nXk=1

    A2sk .

    Adems, Tr(AAT ) = 0 sii A = 0.

    Demostracin. Por definicin de traza y por el teorema 2.16,

    Tr(AAT ) =

    mXs=1

    AAT

    ss

    =

    mXs=1

    nXk=1

    Ask

    ATks

    =

    mXs=1

    nXk=1

    A2sk

    ;

    Esto es, Tr(AAT ) es la suma de los cuadrados de los elementos de A. De esto se sigue entonces que,Tr(AAT ) = Tr(ATA) y adems que Tr(AAT ) = 0 si y slo si A = 0.

    2.3 Ejercicios

    1. Demuestre que si A es una matriz invertible 2 2, entonces Tr(A) = det(A) Tr(A1).2. Si Sean A, B, C M22 son tales que Tr(A) = 2; B es invertible y C =

    3 21 5

    , ; P =

    In 0In In

    ; calcule Tr(2BATB1 +B1CB 3CCT ).

    29

  • 2.3. Traza de una matriz Matrices particionadas

    3. Sea V = Mnn el espacio vectorial de las matrices nn. Demuestre que la funcin ; : V V Rdefinida por A;B = Tr(ABT ) es un producto interno en V . (Vea el apartado 1.2.3 del captulo1).

    4. Sean A y B matrices cuadradas de orden n. Demuestre que

    Tr(ABT ) (Tr(AAT ) Tr(BBT ))1/2.(Sugerencia: use el teorema 1.30)

    5. Si A, B Mnn, muestre que AB BA 6= I. (Sugerencia: Utilice la funcin traza)6. Si T : Mnn R es una transformacin lineal, entonces existe una matriz A tal que T (M) =

    Tr(AM). (Escriba T (M) en trminos de T (Eij), siendo Eij los elementos de la base estndar delas matrices)

    7. Calcule dimW , donde W = {A : Tr(A) = 0}.8. Sean A y B matrices cuadradas del mismo orden

    a) Muestre que Tr((AB)k) = Tr((BA)k).b) Muestre con un ejemplo que Tr((AB)k) 6= Tr(AkBk).

    30

  • CAPTULO 3

    Valores propios y vectores propios. Diagonalizacin

    Este captulo consta de cuatro secciones. Con el fin de dar una idea de lo que se har en las dos primerassecciones, se considerar un espacio vectorial U y una transformacin lineal T : U U. Ahora; si existeuna base ordenada B = {u1,u2, . . . ,un} de U tal que [T ]BB es una matriz diagonal, es decir,

    [T ]BB = D =

    266641 0 00 2 0...

    .... . .

    ...0 0 n

    37775 ,entonces

    T (ui) = iui; i = 1, 2, . . . , n ,

    esto es, T (ui) es un mltiplo escalar de ui. Este hecho da informacin inmediata acerca de la transformacinlineal T . Por ejemplo, la imagen de T es el espacio generado por los vectores ui para los cuales i 6= 0,y el ncleo de T es el espacio generado por los restantes vectores ui. En la seccin 3.2 se respondern laspreguntas: Para qu transformaciones lineales T existe una tal base B? y si existe, Cmo encontrarla?.Las respuestas a estas preguntas estn directamente ligadas a los conceptos de valor propio y vector propio,los cuales sern abordados en la seccin 3.1. Se ver en esta seccin, de que el clculo de los valores propios ylos vectores propios de una transformacin lineal T se reduce al clculo de los valores propios y los vectorespropios de una cierta matriz A. Por otro lado, en las secciones 3.3 y 3.4 se consideraran los conceptos de valorpropio, vector propio y diagonalizacin de matrices simtricas, los cuales son particularmente importantesen la teora y en aplicaciones del lgebra lineal.

    3.1. Valores propios y vectores propios

    Un problema que se presenta con frecuencia en el lgebra lineal y sus aplicaciones es el siguiente: Dado unespacio vectorial U y dada una transformacin lineal T : U U , encontrar valores de un escalar paralos cuales existan vectores u 6= 0 tales que T (u) = u. Tal problema se denomina un problema de valorespropios (la figura 3.1 ilustra las posibles situaciones). En esta seccin se ver cmo resolver dicho problema.

    3.1. Definicin. Sean U un espacio vectorial y T : U U una transformacin lineal. Se dice que el escalar es un valor propio de T , si existe un vector u 6= 0 de U tal que T (u) = u. A dicho vector no nulo u sele llama un vector propio de T correspondiente al valor propio , o se dice que es -vector de T .

    Nota. Los valores propios se denominan tambin eigenvalores o valores caractersticos y los vectores propiosse denominan tambin eigenvectores.

    31

  • 3.1. Valores propios y vectores propios Diagonalizacin de matrices

    u

    0

  • Diagonalizacin de matrices 3.1. Valores propios y vectores propios

    y

    T(u ) =3 (0, y)

    u = (x, x)

    T(u) =2 (x, x)

    x

    ,

    ,

    u = (0, y)

    Figura 3.2. Vectores propios de T (x, y) = (2x, x+ 3y)

    2. Si u S() y R entoncesT (u) = T (u) = ( u) .

    Esto es, u S().

    De acuerdo con el teorema 1.15, S() es un subespacio vectorial de U.

    3.4. Definicin. Sean U un espacio vectorial, T : U U una transformacin lineal y un valor propio deT .

    1. El subespacio de U, S(), mencionado en el teorema anterior, se denomina espacio propio asociadoal valor propio .

    2. La dimensin de S() se denomina multiplicidad geomtrica del valor propio .

    3.5. Nota. Sean U un espacio vectorial, T : U U una transformacin lineal, B una base ordenadapara U y A = [T ]BB , la matriz de la transformacin T referida a la base B. Entonces para cada u Use tiene [T (u)]B = A [u]B (ver teorema 1.42). En particular, u es un -vector propio de T si y slo siu 6= 0 y A [u]B = [T (u)]B = [u]B = [u]B . Esto es, u es un -vector propio de T si y slo si u 6= 0y A [u]B = [u]B . Por esta razn, y porque resulta en otros contextos, consideramos a continuacin losconceptos particulares de valor propio y vector propio de una matriz cuadrada A.

    3.6. Definicin. Sea A una matriz cuadrada de orden n.

    1. Se dice que el escalar es un valor propio de A, si existe un vector n 1, x 6= 0 tal que Ax = x.2. Si es un valor propio de A y si el vector n 1, x 6= 0 es tal que Ax = x. Entonces se dice que

    x es un vector propio de A correspondiente al valor propio , o que x es un -vector de A.

    En el caso especial de la transformacin lineal; A : Rn Rn; x y = Ax, esta la definicin anteriorconcuerda con la definicin 3.1 (vase la seccin 1.3). De otro lado, segn la definicin anterior y la nota3.5, se puede entonces enunciar el siguiente teorema.

    3.7. Teorema. Sean U un espacio vectorial, T : U U una transformacin lineal, B una base ordenadapara U y A = [T ]BB .

    1. es un valor propio de T sii es un valor propio de A.

    33

  • 3.1. Valores propios y vectores propios Diagonalizacin de matrices

    2. u U es un -vector propio de T sii x = [u]BB es un -vector propio de A.

    Dicho teorema garatiza entonces, que el clculo de los valores y vectores propios de una transformacinlineal se reduce al clculo de los valores y vectores propios de una cierta matriz A. En lo que sigue, se vercmo calcular los valores y vectores propios de una matriz.

    Sea A una matriz nn. Por definicin, el escalar es un valor propio de A sii existe un vector n1, x 6= 0tal que Ax = x, lo cual equivale a que el sistema homogneo de ecuaciones lineales (A I)x = 0 tengauna solucin no trivial x 6= 0. Ahora por el teorema 1.56 del captulo 1, el sistema de ecuaciones lineales(A I)x = 0 tiene una solucin x 6= 0 sii |A I| = 0. En consecuencia, el escalar es un valor propiode A sii

    pA() = |A I| =

    a11 a12 a13 a1na21 a22 a23 a2na31 a32 a33 a3n...

    ......

    . . ....

    an1 an2 an3 ann

    = 0

    La expresin pA() = |A I| es un polinomio en de grado n (ejercicio 15), el cual se puede escribir enla forma:

    pA() = |A I| = a0 + a1+ a22 + + an1n1 + (1)nn.En el caso particular de matrices 3 3 se tiene adems (ejercicio 16), de que el polinomio caractersticoest dado por

    pA() = |A I| = 3 + Tr(A)2 (m11 +m22 +m33)+ det(A),siendo mii, (i = 1, 2, 3) los menores principales de la matriz A (definicin ??).

    3.8. Definicin. Sea A una matriz cuadrada

    1. El polinomio caracterstico de A est dado por pA() = |A I|.2. La ecuacin caracterstica de A est dada por pA() = |A I| = 0.

    El siguiente teorema resume buena parte de la discusin anterior.

    3.9. Teorema. Sea A una matriz cuadrada de orden n

    1. El escalar es un valor propio de A sii es una solucin (real)1 de la ecuacin caracterstica deA.

    2. A tiene a lo ms n valores propios (reales)2.[?]

    3.10. Definicin. Sea A una matriz cuadrada y un valor propio de A. La multiplicidad algebraica de es k, si es una raz del polinomio caracterstico de A de multiplicidad k.

    El siguiente algoritmo, recoge entonces un esquema para calcular los valores propios y los vectores propiosde una matriz A.

    Paso 1 Se determina el polinomio caracterstico pA() = |A I| .Paso 2 Se resuelve la ecuacin caracterstica pA() = |A I| = 0. Las soluciones (reales) de sta, son

    los valores propios de A.

    1Aunque uno puede estudiar espacios vectoriales donde los escalares son nmeros complejos, en estas notas slo consid-eramos los valores propios de A como escalares reales, salvo que se exprese lo contrario. No sobra mencionar, que en cursosavanzados de espacios vectoriales, la nica restriccin para los escalares es que sean elementos de un sistema matemticollamado cuerpo o campo.

    2El teorema fundamental del lgebra establece que toda ecuacin polinmica de grado n, con coeficientes complejos,tiene exactamente n ra ces complejas, contadas con sus multiplicidades.

    34

  • Diagonalizacin de matrices 3.1. Valores propios y vectores propios

    Paso 3 Para cada valor propio de la matriz A, se resuelve el sistema de ecuaciones (A I)x = 0.Las soluciones no nulas de este sistema son los vectores propios de A.

    3.11. Ejemplo. Determine los valores propios y vectores propios de la matriz

    A =

    24 1 1 11 3 11 2 0

    35 .Se determina inicialmente, el polinomio caracterstico de A, pA() = |A I| . Para ello se desarrolla eldeterminante |A I| por cofactores por la primera fila (vase el teorema 1.3)

    pA() = |A I| = 1 1 11 3 11 2

    = (1 )

    3 12

    1

    1 11

    1

    1 3 1 2

    = (1 )(2 3+ 2) (1 ) (+ 1)= (1 )(2 3+ 2) = (1 )2( 2).

    De aqu se tiene, que = 1 = 2 son las soluciones de la ecuacin caracterstica pA() = |A I| = 0. =1 y = 2 so pues los valores propios de A, con multiplicidades algebraicas k = 2 y k = 1 respectivamente.

    Ahora se calculan los vectores propios de A. Los 1vectores propios de A son las soluciones no nulas delsistema de ecuaciones lineales (A 1 I)x = 0. Dicho sistema se resuelve usando el mtodo de eliminacinde Gauss-Jordan (vase el teorema 1.55 ).

    A 1 I =24 0 1 11 2 11 2 1

    35 24 1 0 10 1 1

    0 0 0

    35 = RDonde R es la forma escalonada reducida de la matriz A 1 I (Teorema 1.8).

    Las soluciones del sistema (A 1 I)x = 0 son, por lo tanto, los vectores de la forma:

    x =

    24 x1x2x3

    35 =24 x3x3x3

    35 = x324 11

    1

    35 , x3 R.En consecuencia,

    U1 = U1 =

    8

  • 3.1. Valores propios y vectores propios Diagonalizacin de matrices

    son los vectores de la forma:

    x =

    24 x1x2x3

    35 =24 0x3x3

    35 = x324 01

    1

    35 , x3 R.En consecuencia,

    U2 = U2 =

    8

  • Diagonalizacin de matrices 3.1. Valores propios y vectores propios

    En consecuencia; U 1 = {u1} =

    1 + x+ x2es una base del espacio de vectores propios de T correspon-

    dientes al valor propio 1 = 1 y U 2 = {u2} =x+ x2

    es una base del espacio de vectores propios de T

    correspondientes al valor propio 2 = 2.

    Terminamos esta seccin con dos resultados que involucran matrices semejantes. El primero de ellos relacionalos polimomios caractersticos de matrices semenjantes y el segundo relaciona los vectores propios de dichasmatrices.

    3.14. Teorema. Si A y B son matrices semejantes, entonces los polinomios caracter sticos de A y B soniguales, y por consiguiente, las matrices A y B tienen los mismos valores propios.

    Demostracin. Si A y B son matrices semejantes, entonces existe una matriz invertible P tal queB = P1AP. De aqu:

    pB() = |B I|=

    P1AP P1P

    =P1(A I)P

    = |P1| |A I| |P |= |P1| |P | |A I|= |A I|= pA().

    3.15. Nota. El converso del teorema anterior no es cierto; o sea, si A y B son matrices con el mismo poli-nomio caracterstico, no necesariamente A y B son matrices semejantes. Para mostrar esto, basta considerarel siguiente ejemplo.

    3.16. Ejemplo. Las matrices

    A =

    1 00 1

    y B =

    1 03 1

    tienen el mismo polinomio caracterstico; expl citamente se tiene que pA() = pB() = ( 1)2. Sinembargo, A y B no son matrices semejantes, pues para cualquier matriz invertible P de orden 2 se tieneque:

    P1AP = P1IP = P1P = I 6= B.3.17. Proposicin. Si A y B = P1AP son matrices semejantes, entonces x es un vector propio de Asii P1x es un vector propio de B.

    Demostracin. Por definicin se tiene

    Ax = x AIx = x APP1x = x P1APP1x = P1x

    Tomando B = P1AP se tiene entonces que: x 6= 0 es un -vector propio de A si y slo si P1x 6= 0 es un-vector propio de B = P1AP.

    37

  • 3.1. Valores propios y vectores propios Diagonalizacin de matrices

    3.1 Ejercicios

    En los ejercicios 1 al 1, responda verdadero o falso, justificando su respuesta:

    1. El Polinomio p() = 3+22+43 puede ser el polinomio caracterstico de una matriz A M33.2. Si p() = 3 + 42 5 + 2 es el polinomio caracterstico de una matriz A M33, entonces|A| = 2.

    3. x =

    24 110

    35 es un vector propio de M =24 3 1 17 5 16 6 2

    354. = 1 es un valor propio de la matriz M anterior.5. Sea A una matriz cuadrada de orden n. Si C es una matriz cuadrada de orden n invertible, entonces

    las matrices A, C1AC y CAC1, tienen el mismo polinomio caracterstico.6. Si la matriz A satisface la igualdad: A2 = 3A 2I, entonces los posibles valores propios de A son

    1 = 1, 2 = 2.

    En los ejercicios 7 al 15 demuestre la afirmacin correspondiente.

    7. Si es un valor propio de A, entonces n es un valor propio de An, n = 1, 2, 3, . . ..8. Si x es un vector propio de A, entonces x es un vector propio de An, n = 1, 2, 3, . . ..9. = 0 es un valor propio de una matriz A sii |A| = 0.

    10. Si A es una matriz invertible y es un valor propio de A, entonces 1 es un valor propio de A1.11. SiA y C son matrices cuadradas de orden n y si C es invertible entonces las matricesA, AT , C1AC,

    CAC1, C1ATC y CATC1 tienen el mismo polinomio caracterstico.12. Si T es una matriz triangular superior, entonces los valores propios de T son los elementos de la

    diagonal principal de T.13. Si A y B son matrices cuadradas del mismo orden, entonces AB y BA tienen los mismos valores

    propios (sugerencia: Analice los casos = 0 es un valor propio de AB y 6= 0 es un valor propiode AB).

    14. Sean 1, 2, . . . , n los diferentes valores propios de una matriz A y sean 1, 2, . . . , m son losdiferentes valores propios de una matriz B, entonces los diferentes valores propios de una matrizde la forma

    M =

    A C0 B

    son 1, 2, . . . , n, 1, 2, . . . , m.

    15. Si A es una matriz cuadrada de orden n, entonces pA() = |A I| es un polinomio de grado nen la variable que tiene la forma:

    pA() = a0 + a1+ a22 + + (1)nn.

    (Sugerencia: usar induccin sobre n).16. SiA es una matriz cuadrada de orden 3, entonces el polinomio caracterstico deA, pA() = |A I|,

    tiene la forma

    pA() = |A I|= 3 + Tr(A)2 (m11 +m22 +m33)+ det(A),

    siendo mii (i = 1, 2, 3) los menores principales de la matriz A. (Sugerencia: plantee una matrizgeneral A = (aij)33 y use las definiciones correspondientes).

    17. Para cada una de las siguientes matrices: encuentre el polinomio caracterstico, los varolres propiosy los correspondientes espacios propios asociados.

    38

  • Diagonalizacin de matrices 3.2. Diagonalizacin

    (i) M =

    1 22 1

    (ii) M =

    1 02 2

    (iii) M =

    1 10 1

    (iv) M =

    0 22 0

    (v) M =

    24 1 3 33 5 36 6 4

    35 (vi) M =24 3 1 17 5 16 6 2

    35

    (vii) M =

    24 3 1 11 3 13 1 1

    35 (viii) M =24 2 1 00 1 1

    0 2 4

    35

    (ix) M =

    26642 4 0 05 3 0 00 0 1 20 0 2 2

    3775 (x) M =2664

    0 2 0 02 1 0 00 0 1 10 0 2 4

    3775

    3.2. Diagonalizacin

    En esta seccin se responderan las preguntas siguientes: Dado un espacio vectorial U y dada una transfor-macin lineal T : U U Existe una base B de U tal que [T ]BB es una matriz diagonal? y si existe cmoencontrar una tal base?

    Como se estableci en el teorema 1.48(2), si T : U U es una transformacin lineal, B1 y B2 son basesordenadas de U, A = [T ]B1B1 y P = [I]B2B1 , entonces D = [T ]B2B2 = P

    1AP, esto es, las matrices A y Dson semejantes.

    Esta consideracin permite formular las preguntas anteriores en trminos de matrices, as: Dada una matrizcuadrada A, Existe una matriz diagonal D semejante a la matriz?, en otros trminos, existir una matrizinvertible P tal que P1AP = D sea una matriz diagonal? y si existe cmo encontrar una tal matriz P ?

    3.18. Definicin. Sea A una matriz cuadrada. Se dice que A es diagonalizable si A es semejante a unamatriz diagonal.

    3.19. Teorema. Sea A una matriz cuadrada de orden n. Si existen n vectores propios de A linealmenteindependientes, entonces A es diagonalizable; esto es, existe una matriz invertible P tal que P1AP = Des una matriz diagonal. Adems, los vectores columna de P son los vectores propios de A y los elementosde la diagonal de D son los correspondientes valores propios de A.

    Demostracin. Sean 1, 2, . . . ,n, los n valores propios de A, los cuales no son necesariamentediferentes y sean x1, x2, . . . ,xn, vectores propios de A linealmente independientes, correspondientes respec-tivamente a cada uno de dichos valores propios.

    Sea ahora P la matriz cuya jsima columna es el vector propio xj , j = 1, 2, . . . , n, la cual particionamoscomo sigue:

    P =x1 x2 xn

    .

    Puesto que las columnas de P son linealmente independientes, entonces P es invertible (teorema 1.56).

    39

  • 3.2. Diagonalizacin Diagonalizacin de matrices

    Ahora,

    AP = Ax1 x2 xn

    =

    Ax1 Ax2 Axn

    =1x1 2x2 nxn

    =x1 x2 xn

    266641 0 00 2 0...

    .... . .

    ...0 0 3

    37775= PD

    Donde D es la matriz diagonal indicada arriba. Por lo tanto, P1AP = D, y el teorema queda demostrado.

    El rec proco de este resultado tambin es vlido y est dado por el siguiente teorema. La demostracin sedeja como ejercicio.

    3.20. Teorema. Sea A una matriz cuadrada de orden n. Si A es diagonalizable, es decir, si existe unamatriz invertible P tal que P1AP = D es una matriz diagonal, entonces existen n vectores propios de Alinealmente independientes. Adems, los vectores columna de P son vectores propios de A y los elementosde la diagonal de D son los correspondientes valores propios de A.

    3.21. Ejemplo. Verifique que la matriz A =

    24 4 1 26 5 66 3 4

    35 es diagonalizable y encuentre una matrizinvertible P tal que P1AP = D sea una matriz diagonal. Para tal fin, veamos que A tiene 3 vectorespropios linealmente independientes. En efecto:

    El polinomio caracterstico de A, est dado por

    pA() = |A I| = 4 1 26 5 66 3 4

    = ( 2)2( 1).

    La ecuacin caracterstica de A, pA() = |A I| = 0 tiene entonces como solucin a = 2 (de multiplici-dad 2) y a = 1 (de multiplicidad 1). Estos escalares son pues, los valores propios de A.

    El paso siguiente es determinar los vectores propios asociados:

    Los 2-vectores propios de A son las soluciones no nulas del sistema de ecuaciones (A 2I)x = 0, y los1-vectores propios de A son las soluciones no nulas del sistema de ecuaciones (A 1I)x = 0. Es decir, sedebe resolver sistemas homogneos de ecuaciones cuyas matrices de coeficientes son respectivamente:

    A 2I =24 2 1 26 3 66 3 6

    35 y A 1I =24 3 1 26 4 66 3 5

    35 .Es fcil verificar que las soluciones del sistema homogneo (A 2I)x = 0 son los vectores de la forma

    x =

    24 x1x2x3

    35 =24 12x2 x3x2

    x3

    35

    =1

    2x2

    24 120

    35+ x324 10

    1

    35 , x2, x3 R,40

  • Diagonalizacin de matrices 3.2. Diagonalizacin

    en consecuencia,

    U1 = U2 =

    8

  • 3.2. Diagonalizacin Diagonalizacin de matrices

    Demostracin. La demostracin se har utilizando induccin sobre el nmero k de vectores del con-junto C.

    Si C = {x1}, entonces C es linealmente independiente, pues x1 6= 0.

    El teorema es cierto para cuando k = 2. En efecto: Si

    (3.1) 1x1 + 2x2 = 0,

    premultiplicando (3.1) por el escalar 2 se obtiene:

    (3.2) 21x1 + 22x2 = 0.

    De otra parte; premultiplicando (3.1) por la matriz A se llega a:

    (3.3) 11x1 + 22x2 = 0.

    Restando (3.3) de (3.2) se obtiene:(2 1)1x1 = 0.

    Puesto que x1 6= 0, entonces (21)1 = 0. Dado que 1 6= 2 se tiene entonces que 1 = 0. Reemplazan-do este valor de 1 en (3.1) se llega a que 2x2 = 0, pero x2 6= 0, entonces 2 = 0.

    Suponga ahora que el teorema es cierto para cuando k = j y verifique que el teorema es cierto paracuando k = j+1. Si

    (3.4) 1x1 + 2x2 + . . .+ jxj + j+1xj+1 = 0,

    premultiplicando (3.4) por el escalar j+1 se obtiene:

    (3.5) j+11x1 + j+12x2 + . . .+ j+1jxj + j+1j+1xj+1 = 0,

    De otra parte; premultiplicando (3.4) por la matriz A se llega a:

    (3.6) 11x1 + 22x2 + . . .+ jjxj + j+1j+1xj+1 = 0.

    Restando (3.6) de (3.5) se obtiene:

    (j+1 1)1x1 + (j+1 2)2x2 + . . .+ (j+1 j)jxj = 0.Por hiptesis de induccin se tiene

    (j+1 1)1 = (j+1 2)2 = . . . = (j+1 j)j = 0 .De otro lado, por hiptesis del teorema los escalares 1, . . . , j , j+1 son diferentes, entonces se obtiene que1 = 2 = . . . = j = 0. Reemplazando estos valores en 3.4 se llega a que j+1xj+1 = 0, pero xj+1 6= 0,entonces j+1 = 0. El teorema queda entonces demostrado.

    La prueba del siguiente corolario es consecuencia inmediata de los teoremas 3.23 y 3.19.

    3.24. Corolario. Sea A una matriz cuadrada de orden n. Si A posee n valores propios distintos, entoncesA es diagonalizable.

    3.25. Ejemplo. La matriz

    A =

    24 1 2 30 4 50 0 6

    3533

    es diagonalizable. En efecto, la ecuacin caracterstica de A es:

    pA() = |A I| = (1)3( 1)( 4)( 6) = 0.De esto se sigue que A tiene tres valores propios distintos, a saber: 1 = 1, 2 = 4 y 3 = 6.

    42

  • Diagonalizacin de matrices 3.2. Diagonalizacin

    De acuerdo con los teoremas 3.19 y 3.20, dada la matriz cuadrada A de orden n; existe una matriz invertibleP tal que P1AP = D es una matriz diagonal sii A tiene n vectores propios linealmente independientes.Adems, si existe una tal matriz P , los vectores columna de P son vectores propios de A y los elementos dela diagonal de D son los valores propios de A. Quedan as contestadas las preguntas propuestas al comienzode esta seccin sobre la diagonalizacin de matrices. El siguiente teorema responde a las preguntas sobrediagonalizacin pero formuladas en el contexto de las transformaciones lineales.

    3.26. Teorema. Sea U un espacio de dimensin n y sea T : U U una transformacin lineal. Existeuna base ordenada B2 de U tal que [T ]B2B2 = D es una matriz diagonal sii T tiene n vectores propioslinealmente independientes. Adems, si B2 = {u1, u2, . . . ,un} es una base ordenada de U tal que

    [T ]B2B2 = D =

    266641 0 00 2 0...

    .... . .

    ...0 0 n

    37775es una matriz diagonal, entonces ui es un i-vector propio de T, o sea T (ui) = iui, i = 1, 2, . . . , n.

    Demostracin. Puesto que las matrices asociadas a transformaciones lineales y referidas a basesarbitrarias son semejantes, y puesto que el polinomio caracterstico de matrices semejantes es el mismo (verteorema 3.14), se puede considerar una base arbitraria B1 para U .

    Sea pues A = [T ]B1B1 , la matriz de la transformacin T referida a dicha base B1, Existe una base ordenadaB2 de U tal que D = [T ]B2B2 = [I]

    1B2B1 A [I]B2B1 es una matriz diagonal sii A es semejante a una matriz

    diagonal. Ahora por los teoremas 3.19 y 3.20; A es semejante a una matriz diagonal si y slo si A tiene nvectores propios linealmente independientes, lo cual equivale a que T tenga n vectores propios linealmenteindependientes (ver el apartado 1.2.2)

    Adems, si B2 = {u1, u2, . . . ,un} es una base ordenada de U tal que

    [T ]B2B2 = D =

    266641 0 00 1 0...

    .... . .

    ...0 0 1

    37775es una matriz diagonal, entonces, de acuerdo con la definicin de la matriz [T ]B2B2 , T (ui) = iui ; o sea,ui es un i-vector propio de T , i = 1, 2, . . . , n.

    3.27. Ejemplo. Considere la transformacin lineal T : P3 P3 definida por:Ta+ bx+ cx2

    = (4a b+ 2c) + (6a+ 5b 6c)x+ (6a+ 3b 4c)x2.

    Encuentre una base ordenada B2 de U = P2 tal que [T ]B2B2 = D es una matriz diagonal.

    Sea B1 = {1, x, x} la llamada base cannica de P2 entonces:

    A = [T ]B1B1 =

    24 4 1 26 5 66 3 4

    35 ,que es la matriz del ejemplo 3.21. De dicho ejemplo se sabe que

    x1 =

    24 120

    35 , x2 =24 10

    1

    35 y x3 =24 13