matrices

Upload: thecesar5x

Post on 08-Jul-2015

738 views

Category:

Documents


0 download

TRANSCRIPT

UNIVERSIDAD PEDRO RUIZ GALLO FACULTAD DE CIENCIAS FISICAS Y MATEMATICAS

ESCUELA PROFESIONAL DE MATEMATICAS

ALGEBRA LINEAL

presentado por:

Lic. Mat. Walter Arriaga Delgado

LAMBAYEQUE PERU 2008

DedicatoriaPara mis padres, Martha y El as; para mi adorable esposa, Flor Angela y para el amor de mi vida, mi hija Alessandra Anghely.

Indice generalPrefacio Introduccin o 1. MATRICES, DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES 1.1. Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1.1. Algo de historia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1.2. Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . o 1.1.3. Orden de una Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1.4. Igualdad de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1.5. Matrices Especiales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1.6. Operaciones con Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1.7. Traza de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1.8. Transpuesta de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . 1.1.9. Matriz simtrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . e 1.1.10. Matriz antisimtrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . e 1.1.11. Matriz involutiva . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1.12. Matriz nilpotente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1.13. Matriz idempotente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1.14. Matriz conjugada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1.15. Matriz hermitiana . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1.16. Matriz antihermitiana . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1.17. Matriz ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1.18. Matriz positiva . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2. Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.1. Algo de historia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.2. Clculo de Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . a i 1 1 1 2 3 4 4 7 13 14 14 15 15 15 16 16 17 18 18 18 20 20 23

I

I

ii

Algebra Lineal

Walter Arriaga Delgado 24 25 27 27 27 27 27 28 28 35 36 37 38 39 40 41 41 43 44 45 45 47 48 50 50 52 54 55 55 59 73

1.2.3. Propiedades Generales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.4. Menores y Cofactores . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.5. Clculo de Determinantes por Cofactores . . . . . . . . . . . . . . . . . a 1.3. Matriz Inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3.1. Matriz de cofactores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3.2. Adjunta de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3.3. Mtodo de Gauss Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . e 1.4. Rango de una Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.5. Otras matrices importantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.6. Sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.7. Operaciones Elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.7.1. Matriz escalonada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.7.2. Matrices equivalentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.7.3. Rango de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.8. Matriz Inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.8.1. Matriz de cofactores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.8.2. Adjunta de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.8.3. Matrices elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.8.4. Mtodo de Gauss Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . e 1.9. Sistemas de Ecuaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . 1.9.1. Algo de historia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.9.2. Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . o 1.9.3. Clasicacin de los sisitemas de ecuaciones lineales . . . . . . . . . . . . o 1.9.4. Sistemas Equivalentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.9.5. Mtodo de Gauss-Jordan. Eliminacin Gausiana . . . . . . . . . . . . . e o 1.9.6. Mtodo de Gabriel Cramer . . . . . . . . . . . . . . . . . . . . . . . . . e 1.9.7. Teorema de Rouch - Frbenius . . . . . . . . . . . . . . . . . . . . . . . e o 1.9.8. Sistemas homogneos e . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.10. Factorizacin LU de una Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . o 1.11. Reseas Histricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . n o Indice de Materias

1

MATRICES, DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALESObjetivos Conocer y aplicar las principales tcnicas de clculo matricial. e a Operar con las matrices para aplicarlas en la solucin de sistemas lineales. o Ordenar los datos adecuadamente en la formulacin de un problema. o Manejar los determinantes como elemento de clculo en la resolucin de los sistemas a o lineales.

1.1.1.1.1.

MatricesAlgo de historia

El primero que emple el trmino matriz fue el matemtico ingls James Joseph Sylvester o e a e en el ao 1850. n Sin embargo, hace ms de dos mil aos los matemticos chinos hab descubierto ya un a n a an mtodo de resolucin de sistemas de ecuaciones lineales equivalente al mtodo de Gauss y por e o e lo tanto empleaban tablas con nmeros. u Pero hasta el Siglo XIX no se desarrolla en las matemticas el Algebra de matrices. A a este desarrollo contribuy de forma decisiva el matemtico ingls Arthur Cayley. En 1858 o a e public unas Memorias sobre la teor de matrices en la que daba la denicin de matriz y o a o las operaciones suma de matrices, de producto de un nmero real por una matriz, de producto u de matrices y de inversa de una matriz. Cayley arma que obtuvo la idea de matriz a travs e 1

2

Algebra Lineal

Walter Arriaga Delgado

de la de determinante y tambin como una forma conveniente de expresar transformaciones e geomtricas. e

1.1.2.

Introduccin o

Las matrices aparecen por primera vez hacia el ao 1850, introducidas por J.J. Sylvester. n El desarrollo inicial de la teor se debe al matemtico W.R. Hamilton en 1853. En 1858, A. a a Cayley introduce la notacin matricial como una forma abreviada de escribir un sistema de m o ecuaciones lineales con n incgnitas. o Las matrices se utilizan en el clculo numrico, en la resolucin de sistemas de ecuaciones a e o lineales, de las ecuaciones diferenciales y de las derivadas parciales. Adems de su utilidad a para el estudio de sistemas de ecuaciones lineales, las matrices aparecen de forma natural en geometr estad a, stica, econom informtica, f a, a sica, etc... La utilizacin de matrices (arrays) constituye actualmente una parte esencial de los lenguao jes de programacin, ya que la mayor de los datos se introducen en los ordenadores como o a tablas organizadas en las y columnas: hojas de clculo, bases de datos,... a Adems de su utilidad para el estudio de los sistemas de ecuaciones, las matrices aparecen a de manera natural en geometr estad a, stica, econom etc. a, Nuestra cultura est llena de matrices de nmeros: El horario de los trenes de cada una a u de las estaciones es una matriz de doble entrada, la tabla de cotizaciones de la Bolsa en cada uno de los d de la semana es otra, etc. as Las tablas de sumar y multiplicar, la disposicin de los alumnos en clase, las casillas de un o tablero de ajedrez, las apuestas de la loto, los puntos de un monitor de ordenador, son otros tantos ejemplos de la vida cotidiana de matrices. Actualmente, muchos programas de ordenador utilizan el concepto de matriz. As las , Hojas de Clculo funcionan utilizando una inmensa matriz con cientos de las y columnas en a cuyas celdas se pueden introducir datos y frmulas para realizar clculos a gran velocidad. o a Esto requiere utilizar las operaciones con matrices. Denicin 1.1.1. Una matriz es un ordenamiento rectangular de elementos dispuestos en o las y columnas. Aqu un ejemplo en sus distintas presentaciones: 0 1 a 2 2 0 1 a 2 2 0 1 a 2 2

Esta matriz posee dos las y tres columnas. Es importante adquirir el hbito de enunciar siempre las antes de columnas. a

Walter Arriaga Delgado

Algebra Lineal

3

Los elementos aij pueden ser nmeros reales, nmeros complejos o cualquier objeto no numriu u e co, como por ejemplo la posicin de las chas en el tablero del ajedrez o los apellidos de o personas cuando son codicadas en orden alfabtico. e Notacin General: Se simboliza cada elemento con sub o ndices de la forma aij , donde i representa la la donde se encuentra y j la columna. As la matriz de m las y n columnas cuyos elementos son aij es: a11 a12 . . . a1j . . . a1n a21 a22 . . . a2j . . . a2n . . . . . . . . . . . . A= ai1 ai2 . . . aij . . . ain . . . . . . . . . . . . am1 am2 . . . amj que abreviadamente se representa por: A = (aij )mn , siendo i = 1; 2; 3; . . . ; m ; j = 1; 2; 3; . . . ; n donde m, n N y podemos leer as : . . . amn

A es la matriz de m las y n columnas. aij es un elemento de la matriz A. Si aij K(K = R K = C) entonces denimos una matriz Amn como una aplicacin de o o I J en K. I J (i, j) con 1 i m ; aij K. 1j n K aij

donde a cada pareja (i, j) le corresponde un solo elemento

1.1.3.

Orden de una Matriz

El orden de una matriz es la multiplicacin indicada del nmero de las por el nmero de o u u columnas de dicha matriz, as si la matriz tiene m las y n columnas diremos que la matriz es de orden m n. Ejemplo 1.1.1. La matriz de orden 2 3. El conjunto de matrices m n con elementos aij K se denota por Kmn . Es decir Kmn = {(aij )mn /aij K} Si Si K = R, K = C, entonces entonces Rmn = {(aij )mn /aij R} Cmn = {(aij )mn /aij C} 4 2 5 7 1 3 tiene 2 las y 3 columnas, entonces decimos que es

4

Algebra Lineal

Walter Arriaga Delgado

1.1.4.

Igualdad de Matrices

Dos matrices del mismo orden son iguales si todos sus elementos de la misma posicin son o respectivamente iguales. As sean las matrices A = (aij )mn , B = (bij )mn

A = B aij = bij , i, j , 1 i m , 1 j n Ejemplo 1.1.2. Halle el valor de: (2x y) + (2z w). Si las matrices: 2x + y 2z + w x 2y z 2w son iguales. Solucin o De la igualdad de matrices 2x + y 2z + w x 2y z 2w Se tiene: 2x + y = 4 x 2y = 1 entonces x = 7/5 , As mismo: 2z + w = 5 z 2w = 0 entonces z = 2 , w = 1 Luego el valor de : (2x y) + (2z w) es: 2 7 6 5 5 + (2(2) 1) = 8 23 +3= 5 5 y = 6/5 = 4 5 y 4 5

1 0

1 0

1.1.5.

Matrices Especiales

a. Matriz Cuadrada: Una matriz A es cuadrada cuando el nmero de las es igual al nmero u u de columnas. Amn es cuadrada si y slo si m = n, en este caso se dice que A es de orden o n n o simplemente de orden n y se representa por An . a11 a12 a13 a1n a a22 a23 a2n 21 a31 a32 a33 a3n A= . . . . .. . . . . . . . . . an1 an2 an3 ann Ejemplo 1.1.3. La matriz A = 2 1 3 5 es cuadrada de orden 2.

(1.1)

Walter Arriaga Delgado

Algebra Lineal

5

Diagonal Principal: Es una matriz cuadrada A = (aij )nn , la diagonal principal es el conjunto de elementos aij tales que i = j. As en: 2 3 5 A = 7 9 8 1 4 0 la diagonal principal es la terna (2 9 0) y la diagonal secundaria es la terna (1 9 5). En la matriz cuadrada 1.4, la diagonal principal es: (a11 a22 a33 . . . ann ) Tipos de matrices cuadradas: Las matrices cuadradas pueden ser: a.1 Matriz Triangular: Es aquella matriz cuyos elementos que se encuentran por encima o por debajo de la diagonal principal son ceros. Estas a su vez pueden ser: a.1.1 Matriz Triangular Superior : Una matriz cuadrada A = (aij )nn es triangular superior si aij = 0 i > j, esto es, cuando los elementos que se encuentran por debajo de la diagonal principal son a 11 0 T = 0 . . . ceros. a12 a13 a1n

a22 a23 a2n 0 a33 a3n . . . .. . . . . . . . 0 0 0 ann 3 5 0 Ejemplo 1.1.4. La matriz 0 7 0 es triangular superior. 0 0 0 a.1.2 Matriz Triangular Inferior : Una matriz cuadrada A = (aij )nn es triangular inferior si aij = 0 i < j, esto es, cuando los elementos que se encuentran por encima de la diagonal principal son ceros. a 0 11 a 21 a22 T = a31 a32 . . . . . . an1 16 Ejemplo 1.1.5. La matriz 1 3 0 0 a33 . . . 0 0 . .. . . . ann 0

an2 an2 0 0 16 0 es triangular inferior. 2

6

Algebra Lineal

Walter Arriaga Delgado

a.2 Matriz Diagonal: Es aquella matriz cuyos elementos que se encuentran por encima y por debajo de la diagonal principal a 11 0 D= 0 . . . 0 3 0 0 4 son ceros. Es decir aij = 0 si i = j. 0 0 0 a22 0 0 0 a33 0 . . . .. . . . . . . . 0 0 ann 0 0 , 0 e 0 son diagonales. 0 0

Ejemplo 1.1.6. Las matrices

a.3 Matriz Escalar: Es aquella matriz cuyos elementos que se encuentran en la diagonal principal de toda matriz diagonal son iguales. 0 0 0 0 E = 0 0 . . . . . . . . . 0 En forma general: En es escalar si aij = , 0, 0 0

0 0 . .. . . . 0

si i = j si i = j 2 0 0 2 3 0 0 , 0 3 0 son escalares 0 0 3

Ejemplo 1.1.7. Las matrices

a.4 Matriz Identidad: Es aquella matriz cuyos elementos que se encuentran en la diagonal principal de toda matriz escalar son iguales a 1 0 0 0 1 0 I = 0 0 1 . . . .. . . . . . . . En forma general: In es identidad si 1. 0 0 0 . . . 0 0 0 1

1, si i = j aij = 0, si i = j

Walter Arriaga Delgado

Algebra Lineal

7

b. Matriz Rectangular: Son aquellas matrices donde el nmero de las es distinta al nmero u u de columnas. Esto es: la matriz A = (aij )mn es rectangular si m = n. Ejemplo 1.1.8. 3 0 2 4 1 2

;

2 3 1 1

14

32

c. Matriz Nula: Es aquella matriz cuadrada o rectangular en donde todos sus elementos son nulos, es decir, una matriz A = (aij )mn es nula si aij = 0 i, j. Ejemplo 1.1.9. 0 0 0 0 ; 0 0 0 0 0 0

1.1.6.

Operaciones con Matrices

As como en cualquier conjunto numrico, en el conjunto de matrices tambin se denen e e ciertas operaciones, obviamente, bajo determinadas condiciones. a. Adicin y sustraccin de matrices o o Sean las matrices A = (aij )mn B = (bij )mn

La suma A + B de las matrices A y B de orden m n es una matriz C = (cij )mn de orden m n, de tal modo, que cada elemento cij es igual a la suma: aij + bij . As A + B = (aij )mn + (bij )mn = (aij + bij )mn : La resta A B de las matrices A y B de orden m n es una matriz D = (dij )mn de orden m n, de tal modo, que cada elemento dij es igual a la resta: aij bij . As A B = (aij )mn (bij )mn = (aij bij )mn : Ejemplo 1.1.10. Sean: 2 4 A= 5 7 2 4 ; B= 2+5 5 7 , entonces: 7 11

3 1 =

9 16

A+B = 2

3 1 4

+ 5

4+7

9 16 7 =

3 9 1 + 16 25 47

(A + B) =

6 15 3 12 3 17

AB =

3 1

9 16

3 (9) 1 16

(A B) =

Denicin 1.1.2. La operacin binaria que hace corresponder a cada par de matrices o o A y B una tercera matriz C llamada suma de A y B, esto es: + : Mmn Mmn Mmn (A, B) +(A, B) = A + B = C

8 Propiedades:

Algebra Lineal

Walter Arriaga Delgado

i. La adicin es interna o cerrada en Mmn es decir: o Mmn , por denicin de la adicin de matrices. o o

(A + B) Mmn A, B

ii. La adicin en Mmn es asociativa, es decir: (A + B) + C = A + (B + C), o A; B; C Mmn . Veamos: Sean A = (aij )mn ; B = (bij )mn ; C = (cij )mn (A + B) + C = ((aij )mn + (bij )mn + (cij )mn ) (aij + bij + cij )mn = (aij )mn + (bij + cij )mn = A + (B + C)

iii. Existe en Mmn una unica matriz identidad o neutro aditivo denotado por 0; lla mada matriz nula donde todos sus elementos son ceros; esto es: A Mmn , 0 Mmn tal que A + 0 = 0 + A = A iv. Toda matriz A Mmn tiene un simtrico aditivo dado por A Mmn ; esto e es: A Mmn , (A) = (aij )mn tal que A+(A) = (aij )mn +(aij )mn = 0mn Con estas propiedades queda garantizado que (Mmn ; +) tiene estructura de grupo. Adems: a v. La adicin en Mmn es conmutativa, es decir: A + B = B + A, A; B Mmn , o as A + B = (aij )mn + (bij )mn (aij + bij )mn = (bij + aij )mn : (bij )mn + (aij )mn = B + A Mediante esta quinta propiedad diremos que (Mmn ; +) es un grupo abelino o conmutativo. b. Multiplicacin de matrices o b.1. Multiplicacin de un escalar por una matriz o Cuando un escalar multiplica a una matriz, cada elemento de la matriz queda multiplicado por dicho escalar. As Sea A = (aij )mn : Donde es un escalar Ejemplo 1.1.11. 20 15 10 5 Denicin 1.1.3. La operacin binaria que hace corresponder a cada par de eleo o mentos, un escalar y una matriz A, una matriz C llamada producto de y A, Sea: A = 4 3 2 1 5A = 5(4) 5(3) 5(2) 5(1) 5A = A = (aij )mn .

Walter Arriaga Delgado esto es:

Algebra Lineal

9

: K Mmn Mmn (, A) Propiedades: i. Propiedad distributiva: (A + B) = A + B, A, B Mmn ; K ii. Propiedad distributiva: ( + )A = A + A, A Mmn ; ; K iii. Propiedad asociativa: (A) = ()A, A Mmn ; ; K Por tanto: Si K = R entonces (Mmn , +, ) es un espacio vectorial sobre el cuerpo de los nmeros reales. u Si K = C entonces (Mmn , +, ) es un espacio vectorial sobre el cuerpo de los nmeros complejos. u b.2. Multiplicacin de una matriz la por una matriz columna o b 1 b 2 ; B = b3 Sean las matrices: A = a1 a2 a3 an 1n . . . bn n1 Denimos: AB = (a1 b1 + a2 b2 + a3 b3 + + an bn )11 . Es decir:n

(, A) = A

AB =k=1

ak bk 7

B = 2 4 entonces: AB = (1)(7) + (3)(2) + (5)(4) = 21 Ejemplo 1.1.12. Sean: A = 1 3 5 ; b.3. Multiplicacin de dos matrices o Dados dos matrices A = (aij )mn ; B = (bjk )np existe una tercera matriz C = (cik )mp que representa el producto de multiplicar las matrices A y B; donde cik es el producto de multiplicar la la i de la primera matriz por la columna k de la segunda matriz. Denicin 1.1.4. La operacin binaria que hace corresponder a cada par de mao o trices A y B, una matriz C llamada producto de A y B, esto es: : Mmn Mnp Mmp (A, B) (A, B) = AB

10

Algebra Lineal

Walter Arriaga Delgado

Nota: La multiplicacin de una matriz A y la matriz B existe si y slo si el nmero o o u de columnas de la primera matriz es igual al nmero de las de la segunda matriz. u Es decir:n

AB = (cik )mp / cik =j=1

aij bjk

5 4 1 4 3 2 ; B = 7 9 3 Ejemplo 1.1.13. Sean las matrices: A = 5 1 9 23 2 1 2 33 La matriz C producto de A y B ser de orden 2 3 de la siguiente forma. a c11 c12 c13 . Hallando cada uno de los elementos: C= c21 c22 c23 c11 = (4)(5) + (3)(7) + (2)(2) = 45 c12 = (4)(4) + (3)(9) + (2)(1) = 45 c13 = (4)(1) + (3)(3) + (2)(2) = 17 c21 = (5)(5) + (1)(7) + (9)(2) = 50 c22 = (5)(4) + (1)(9) + (9)(1) = 38 c23 = (5)(1) + (1)(3) + (9)(2) = 26 entonces: C = 45 45 17 50 38 26

Nota: La multiplicacin de matrices no necesariamente es conmutativa. o b.4. Multiplicacin de matrices por bloques o Existen situaciones en las que es conveniente manejar las matrices como bloques de matrices ms pequeas, llamadas submatrices, y despus multiplicar bloque por a n e bloque en lugar de componente por componente. Resulta que la multiplicacin en o bloques es muy similar a la multiplicacin normal de matrices. o Ejemplo 1.1.14. Considere el producto: 2 AB = 1 2 1 0 1 3 3 4 5 2 1 0 3 2 1 2 3 0 1 2 5 0 4 1 4

1 2

El lector debe vericar que este producto est denido. Ahora se hace una particin e o

Walter Arriaga Delgado

Algebra Lineal

11

de estas matrices mediante l neas punteadas. 1 1 | 2 4 1 4 | 3 2 0 | 4 5 2 1 | 0 C | D G | H | | = | | 1 3 1 | 2 3 2 | 1 E | F J | K 2 3 | 5 0 0 1 | 2 Existen otras maneras de formar la particin. En este caso C = o K = 1 1 1 2 0 ,

, etc. Ahora suponiendo que todos los productos y las sumas de las 2 matrices estn denidos, se puede multiplicar normalmente para obtener a CG + DJ | CH + DK C D G H = | AB = E F J K EG + F J | EH + F K Ahora: CG = 2 4 4 5 1 1 2 0 = 1 4 = 8 1 5 2 y 1 1 3 0 3 6 8

2 1 6

DJ =

3 2 0 7 1 13

12 13

CG + DJ =

10 21 1 2 =

.

De manera similar, EH = 4 5 1 1

2 3 .

=

,

FK =

2 3 5 0

y

EH + F K = 13 20 7 13

El lector debe vericar que CH + DK = de manera que CG + DJ AB = EG + F J

y

EG + F J =

3

4

11 1

7 13 13 10 21 | 20 | CH + DK 10 21 20 | = | = 3 4 1 3 4 | 1 | EH + F K 11 1 1 11 1 | 1 | 13

Esta es la misma respuesta que se obtiene si se multiplica AB directamente. Cuando se hace una prticin de dos matrices y, como ene el ejemplo anterior, todos o los productos de submatrices estn denidos, entonces se dice que la particin es a o conformante.

12 Propiedades

Algebra Lineal

Walter Arriaga Delgado

i. Propiedad asociativa: A(BC) = (AB)C, donde A Mmp , B Mpq , C Mqn . En efecto: A(BC) =q p k=1 p p q p q p q

aik (BC)kj =q k=1 p

aik (l=1

bkl clj ) =q l=1 k=1 l=1

aik (bkl clj ) =k=1 l=1

(aik bkl )clj

=l=1 k=1

(aik bkl )clj =

(l=1 k=1

aik bkl )clj =

(AB)il clj = (AB)C

ii. Propiedad asociativa: A(B + C) = AB + AC, donde A Mmp , B; C Mpn . En efecto: A(B + C) =p p k=1 p p p

aik (B + C)kj =k=1

aik (bkj + ckj ) =k=1

(aik bkj + aik ckj ) =

aik bkj +k=1 k=1

aik ckj = AB + AC

iii. Propiedad no conmutativa: AB = BA iv. AB = 0 no implica que A = 0 B = 0 o v. AB = AC no implica que B = C vi. Elemento neutro: A Mnn , In Mnn tal que IA = AI = A. Ejemplo 1.1.15. Sean las matrices: A = BA. AB = 3 2 4 1 3 7 1 5 = 11 31 13 33 3 2 4 1 y ; B = 3 7 1 5 3 7 1 5 3 2 4 1 ; Veamos AB y = 37 13 23 7

BA =

De donde observamos que: AB = BA. Ejemplo 1.1.16. Sean las matrices: A = Veamos AB. AB = 3 5 5 10 6 10 3 6 = 0 0 0 0 3 5 ; B= 5 10 ;

6 10

3 6

Vemos que AB = 0, pero no implica que A o B sean matrices nulas. Ejemplo 1.1.17. Sean las matrices: A = Veamos AB y AC. AB = 1 1 0 0 2 3 5 8 = 7 11 0 0 y AC = 1 1 0 0 5 8 2 3 = 7 11 0 0 1 1 0 0 , B= 2 3 5 8 , C= 5 8 2 3

Se observa que AB = AC sin embargo B = C.

Walter Arriaga Delgado Denicin 1.1.5. o

Algebra Lineal

13

Si AB = BA, se dice que las matrices A y B son matrices conmutables. Si AB = BA , se dice que las matrices A y B son matrices anticonmutables.Nota: Si A es una matriz cuadrada de orden n y B = aA + bI donde a y b son escalares entonces A y b son conmutables. c. Potenciacin de matrices Sea A una matriz cuadrada y n N/n 2; entonces se o dene: An = A.A.A.A An veces

Ejemplo 1.1.18. Si A =

1 3 2 4

entonces

A2 =

1 3 2 4

1 3 2 4

=

7

15

10 22

Nota: La potenciacin de matrices es conmutativa. De donde se tendr. o a a. (k. A)n = k n . An b. Si A es una matriz cuadrada entonces Am An = An Am /m; n N c. Si A y B conmutan entonces Am y B n conmutan siendo m, n naturales. d. Si A es una matriz cuadrada (Am )n = Amn = (An )m ; m; n N.

1.1.7.

Traza de una matriz

Dada la matriz cuadrada, se llama traza a la suma de los elementos de la diagonal principal y se denota por traz as :n

Sea A = (aij )n n 5 9 0 A = 0 7 4 9 5 2

Traz(A) =i=1

aij

Ejemplo 1.1.19. Sea

Traz(A) = 5 + 7 2 = 10

Teorema 1.1.1. Sean las matrices cuadradas A y B del mismo orden y un escalar. Traz(A B) = Traz(A) Traz(B) En efecto: Sean A = (aij )mnn n i=1

;

B = (bij )mn n

A B = (aij bij )mn

Traz(A B) =i=1

(aij bij ) =

(aij ) i=1

(bij ) = Traz(A) Traz(B)

14 Traz( A) = Traz(A) En efecto: A = (aij )mnn n

Algebra Lineal

Walter Arriaga Delgado

Traz(A) =i=1

aij = i=1 n

aij = TrazA

Traz(AB) = Traz(BA) En efecto: Traz(AB) =n

n

cij ,i=1

donden

cij =j=1 n

aij bj i

entonces

n j=1

Traz(AB) =i=1

aij bj i

bji aijj=1 i=1

= Traz(BA)

1.1.8.

Transpuesta de una matriz

Denicin 1.1.6. Sea A Mmn , se llama transpuesta de A y se denota por At a la matriz o resultante de cambiar, ordenadamente, las las por las columnas de la matriz A de tal manera, que si llamamos A = (aij ) y At = (aij ) tenemos: aij = aji , 1 i m 1 j n por lo que si A Mmn At Mnm . 1 2 3 4 7 2 1 4 At = 2 7 9 2

Ejemplo 1.1.20. Dada la matriz

A=

entonces

Teorema 1.1.2. (A B)t = At B t , (At )t = A, A, B Mmn .

A Mmn . A Mmn , es un escalar

(A)t = At ;

(AB)t = B t At ,

A Mmn , B Mnp .

1.1.9.

Matriz simtrica e

Una matriz cuadrada diremos que es simtrica si y slo si es igual a su transpuesta. e o A es simtrica A = At e 10 1 2 5 7 Ejemplo 1.1.21. Las matrices ; 1 e 2 3 son matrices simtricas 7 4 2 3

Walter Arriaga Delgado

Algebra Lineal

15

1.1.10.

Matriz antisimtrica e

Una matriz cuadrada ser antisimtrica si y slo si es igual al negativo de su transpuesta. a e o A es antisimtrica A = At e Ejemplo 1.1.22. Dada la matriz A = 0 5 5 0 0 5 se tiene que 0 0

5 0 = (1)

At = entonces A es antisimtrica. e

5 0

= A

Observacin 1.1.1. Todos los elementos de la diagonal principal de una matriz antisimtrica o e son iguales a cero y los elementos simtricos respecto a la diagonal principal son opuestos o e en forma equivalente: aij = aji Teorema 1.1.3. Toda matriz cuadrada se puede escribir como la adicin de una matriz o simtrica y otra antisimtrica e e Demostracin o Observe las matrices A + At y A At . Veamos que: (A + At )t = At + (At )t = At + A = A + At A At A + At + 2 2simtrica e antisimtrica e

A + At es simtrica e A At es antisimtrica e

(A At )t = At (At )t = At A = (A At ) y como: A=

podemos expresar la matriz A como una adicin de una matriz simtrica y otra antisimtrica. o e e

1.1.11.A2 = 1.

Matriz involutiva

Una matriz cuadrada es involutiva si y slo si su cuadrado es igual a la identidad, es decir: o 1 1 0 1 0 0 1 1

Ejemplo 1.1.23. Dada la matriz 1 1 0 1 1 1 0 1

A=

.

Veamos:

A2 = A. A =

=

= I entonces A2 = I A es involutiva.

1.1.12.

Matriz nilpotente

Una matriz cuadrada A se dice nilpotente de ndice k si Ak = 0; donde 0 es una matriz nula; adems Ak1 = 0. a

16

Algebra Lineal 1 1 2 3

Walter Arriaga Delgado

Ejemplo 1.1.24. Dada la matriz A2 = A. A = 5 1 1 2 3

A= 5 1 1

6 . 2 1 3 3 0

Veamos: 0 0

6 5 2 6 = 3 3 9 2 1 3 2 1 3 1 1 3 1 1 3 0 0 0

0 0 0 A3 = A. A = 5 2 6 3 3 9 = 0 0 0 2 1 3 1 1 3 0 0 0 Entonces A es una matriz nilpotente de ndice de nilpotencia 3.

1.1.13.

Matriz idempotente

Una matriz cuadrada A se llama idempotente si y slo si A2 = A o Ejemplo 1.1.25. Veamos la matriz A2 = A. A = 3 2 3 2 A= = 3 3 2 2 , donde:

3 2 ,

3 2

3 2

3 2

obtenindose que A2 = A e

luego diremos que A es una matriz indepotente.

1.1.14.

Matriz conjugada 1; la expresin z = a + bi representa un nmero o u

Sean a y b nmeros reales e i = u

conplejo. Los nmeros complejos de la forma a + bi y a bi se llaman conjugados y cada u uno de ellos es conjugado del otro. Si z = a + bi, su complejo conjugado se representa por z = a + bi. Sean z1 = a + bi y z2 = z 1 = a bi; entonces, z 2 = z 1 = a bi = a + bi, es decir, el conjugado del conjugado de un nmero complejo z es el mismo. u Si z1 = a + bi y z2 = c + di se tiene z1 + z2 = (a + c) + (b + d)i y conjugados. z1 z2 = (acbd)+(ad+bc)i y z1 z2 = (acbd)(ad+bc)i = (abi)(cdi) = z1 z2 , esto es, el conjugado del producto de dos nmeros complejos es igual al producto de los u conjugados. z1 + z2 = (a + c) (b + d)i = (a bi) + (c di) = z1 + z2 ,

es decir, el conjugado de la suma de dos nmeros complejos es igual a la suma de los u

Walter Arriaga Delgado

Algebra Lineal

17

Sea A una matriz cuyos elementos son nmeros complejos; la matriz obtenida a partir u de A sustituyendo cada elemento por su conjugado se llama matriz conjugada de A y se representa por A (conjugada de A). Ejemplo 1.1.26. Si A= 1 + 2i 3 i 2 3i ser a A= 1 2i 3 i 2 + 3i

Sean A y B las matrices conjugadas, respectivamente de A y B, y k un escalar cualquiera; entonces se tiene que: Teorema 1.1.4. (A) = A. (kA) = k A (A + B) = A + B. (AB) = A B. (A)t = (A ). donde la transpuesta de A se denota por A (y se lee transpuesta de la conjugada de A). Algunas veces se emplea la notacin A . ot t

1.1.15.

Matriz hermitiana

Dada una matriz cuadrada de elementos complejos se llama hermitiana o herm tica si dicha matriz es igual a la transpuesta de su matriz conjugada, es decir: Sea A = (aij )nn es hermitiana si A = (aij )t . De donde se concluye que los elementos de nn la diagonal principal son necesariamente reales. Ejemplo 1.1.27. Sea la matriz: (A)t = 5 41 4+i 1 , A= 5 4i 4+i 1 A= 5 4+i 4i 1

como: (A)t = A

A es una matriz hermitiana.

Propiedades Sea A = B + iC, donde A es hermitiana y B y C reales, entonces B es simtrica y C e antisimtrica. e En una matriz hermitiana, los elementos de la diagonal principal son reales.

18

Algebra Lineal

Walter Arriaga Delgado

1.1.16.

Matriz antihermitiana

Dada una matriz cuadrada de elementos complejos se llama antihermitiana si es igual al negativo de la transpuesta de su matriz conjugada. Es decir: Si A = (aij )nn (A)t = ((aij ))t nn A es antihermitiana. De donde se cuncluye que los elementos de la diagonal principal son ceros. Ejemplo 1.1.28. Sea 0 A= 0 4 + 5i = (1) 4 + 5i 0 0 A= 0 4 5i 4 5i 0

4 5i 0 4 + 5i luego se dir que la matriz A es antihermitiana. a

(A)t =

4 5i

4 + 5i 0

= A

Teorema 1.1.5. Sea A una matriz cuadrada de elementos complejos. A + (A)t es hermitiana. A (A)t es antihermitiana. Teorema 1.1.6. Toda matriz cuadrada de elementos complejos se puede escribir como la adicin de una matriz hermitiana y otra antihermitiana. o

1.1.17.

Matriz ortogonal

Sea la matriz cuadrada An = [aij ]. A es ortogonal s y slo si A1 = At , A es no singular o Propiedades A es ortogonal AAt = In . Si A y B son ortogonales AB es ortogonal. Las matrices ortogonales, representan transformaciones en espacios vectoriales reales llamadas justamente, transformaciones ortogonales. Estas transformaciones son isomormos internos del espacio vectorial en cuestin. Suelen representar rotaciones y son usadas extensivamente o en computacin grca. Por sus propiedades tambin son usadas para el estudio de ciertos o a e brados y en f sica se las usa en la formulacin de ciertas teor de campos. o as

1.1.18.

Matriz positivaX = 0.

Sea A Rnn , A es positiva s y slo si XAt X > 0 X Rn , , o

Walter Arriaga Delgado

Algebra Lineal

19

EJERCICIOS RESUELTOS

1.1.1.

Problema 1.1.1. En la sala de un hospital dedicado al tratamiento de diabticos se administra e insulina de tres clases: semilenta, lenta y ultralenta. El nmero de unidades diarias que se aplica u a los pacientes de los cinco ingresados viene dado por la siguiente tabla: Pac. 1 Semilenta Lenta Ultralenta 15 20 10 Pac. 2 15 20 5 Pac. 3 20 15 10 Pac. 4 30 5 10 Pac. 5 10 20 15

El nmero de d que ha estado internado cada paciente es: u as Pac. 1 No de d as 3 Pac. 2 7 Pac. 3 5 Pac. 4 12 Pac. 5 20

Calcula, con ayuda del producto de matrices, las unidades de cada clase que le fue administrada a los pacientes. Solucin: o 15 15 20 30 10 La matriz de necesidades diarias es: A = 20 20 15 5 20. 10 5 10 10 15 3 7 La matriz columna que expresa el nmero de d es: D = 5 . u as 12 20 Para hallar el nmero de unidades de cada clase administradas a los pacientes calculemos: u 3 810 15 15 20 30 10 7 AD = 20 20 15 5 20 5 = 735 535 10 5 10 10 15 12 20 Problema 1.1.2. En un hospital oncolgico se aplica a un grupo de cuatro pacientes un o tratamiento de quimioterapia mediante un protocolo CMF (C=ciclofosfamida, M=metrotexate, F=5-uoracilo). Las cantidades diarias que necesita cada paciente de cada uno de los compuestos var segn la supercie total corporal, del siguiente modo: an u Paciente 1: 1200 mg de C, 80 mg de M y 1200 mg de F.

20

Algebra Lineal

Walter Arriaga Delgado

Paciente 2: 900 mg de C, 60 mg de M y 950 mg de F. Paciente 3: 1100 mg de C, 70 mg de M y 1000 mg de F. Paciente 4: 1150 mg de C, 80 mg de M y 1100 mg de F. Teniendo en cuenta que el tratamiento se va a aplicar durante tres semanas a los pacientes 1, 3 y 4 y dos semanas al paciente 2, hallar la matriz de necesidades diarias y las cantidades de cada compuesto necesarias para poder atender correctamente los tratamientos de los cuatro pacientes. Solucin: o La matriz de necesidades diarias es: Pac. 1 Ciclofosfamida Metrotexate 5-uoracilo 1200 80 1200 Pac. 2 900 60 950 Pac. 3 1100 70 1000 Pac. 4 1150 80 1100

1200 900 1100 1150 A = 80 60 70 80 1200 950 1000 1100 Si representamos por D el vector columna que expresa el nmero de d que cada paciente u as debe seguir el tratamiento, se tiene: 21 14 D= 21 21

Las necesidades totales de cada compuesto se obtienen multiplicando la matriz A por la D: 21 1200 900 1100 1150 85050 14 AD = 80 60 70 80 = 5670 21 1200 950 1000 1100 82600 21 As pues, se necesitan: 85.050 mg de ciclofosfamida, 5.670 de metrotexate y 82.600 mg de 5-uoracilo.

1.2.1.2.1.

DeterminantesAlgo de historia

Los determinantes fueron introducidos en Occidente a partir del siglo XVI, esto es, antes que las matrices, que no aparecieron hasta el siglo XIX. Conviene recordar que los chinos

Walter Arriaga Delgado

Algebra Lineal

21

(Hui, Liu, Jiuzhang Suanshu o Los nueve cap tulos del arte matemtico.) fueron los primeros a en utilizar las tablas de nmeros y en aplicar un algoritmo que, desde el Siglo XIX, se conoce u con el nombre de Eliminacin gaussiana. o Primeros clculos de determinantes a En su sentido original, el determinante determina la unicidad de la solucin de un sistema o de ecuaciones lineales. Fue introducido para el caso de orden 2 por Cardan en 1545 en su obra Ars Magna presentado como una regla para la resolucin de sistemas de dos ecuaciones con o dos incgnitas. Esta primera frmula lleva el nombre de regula de modo. o o El japons Kowa Seki introdujo los determinantes de orden 3 y 4 en la misma poca que e e el alemn LeibnizLa aparicin de determinantes de rdenes superiores tard an ms de cien a o o o u a aos en llegar. Curiosamente el japons Kowa Seki y el alemn Leibniz otorgaron los primeros n e a ejemplos casi simultaneamente. Leibniz estudi los distintos tipos de sistemas de ecuaciones lineales. Al no disponer de la o notacin matricial, representaba los coecientes de las incgnitas con una pareja de o o ndices: as pues escrib ij para representar ai,j . En 1678 se interes por un sistema de tres ecuaciones a o con tres incgnitas y obtuvo, para dicho ejemplo, la frmula de desarroyo a lo largo de una o o columna. El mismo ao, escribi un determinante de orden 4, correcto en todo salvo en el n o signo. Leibniz no public este trabajo, que pareci quedar olvidado hasta que los resultados o o fueron redescubiertos de forma independiente cincuenta aos ms tarde n a En el mismo periodo, Kowa Seki public un manuscrito sobre los determinantes, donde se o hallan frmulas generales dif o ciles de interpretar. Parece que se dan frmulas correctas para o determinantes de tamao 3 y 4, y de nuevo los signos mal para los determinantes de tamao n n superior. El descubrimiento se queda sin futuro a causa del cierre de de Japn al mundo o exterior. Este aislamiento debido a los shoguns, se ve reejado en la expulsin de los Jesuitas o en 1638. Determinantes de cualquier dimensin o Gabriel Cramer obtuvo las primeras frmulas generales de clculo de los determinantes. o a En 1748, un pstumo tratado de lgebra de MacLaurin recupera la teor de los determinantes o a a al contener la escritura correcta de la solucin de un sistema de cuatro ecuaciones con cuatro o incgnitas. o En 1750, Cramer formula las reglas generales que permiten la resolucin de un sistema de n o ecuaciones con n incgnitas, aunque no ofrece demostracin alguna. Los mtodos de clculo de o o e a los determinantes son hasta entonces delicados debido a que se basan en la nocin de signatura o de una permutacin. o Los matemticos se familiarizan con este nuevo objeto a travs de los art a e culos de Bzout e en 1764, de Vandermonde en 1771 (que proporciona concretamente el calculo del determinante de la actual Matriz de Vandermonde). En 1772, Laplace establece las reglas de recurrencia que llevan su nombre. En el ao siguiente, Lagrange descubre la relacin entre el clculo de n o a los determinantes y el de los volmenes. u Gauss utiliza por primera vez el trmino (( dterminante )), en las Disquisitiones arithmetie e cae en 1801. Lo empleaba para lo que hoy d denominamos discriminante de una cudrica a a y que es un caso particular de determinante moderno. Igualmente estuvo cerca de obtener el teorema del determinante de un producto.

22

Algebra Lineal

Walter Arriaga Delgado

Aparicin de la nocin moderna de determinante o o Cauchy fue el primero en emplear el trmino determinante con su signicado moderno. Se e encarg de realizar una s o ntesis de los conocimientos anteriores y public en 1812 la frmula o o del determinante de un producto. Ese mismo ao Binet ofreci una demostracin para dicha n o o frmula. Paralelamente Cauchy establece las bases del estudio de la reduccin de endomorso o mos. Con la publicacin de sus tres tratados sobre determinantes en 1841 en la revista Crelle, o Jacobi aporta a la nocin una gran notoriedad. Por primera vez presenta mtodos sistemticos o e a de clculo bajo una forma algor a tmica. Del mismo modo, hace posible la evaluacin del detero minante de funciones con instauracin del jacobiano. o El cuadro matricial es introducido por los tabajos de Cayley y Sylvester. Cayley es adems a el inventor de la notacin del determinante mediante dos barras verticales y es quien estableo ci la frmula de clculo de la inversa. o o a La teor se ve reforzada por el estudio de determinantes que poseen propiedades de a simetr particular y por la introduccin del determinante en los nuevos campos de las matemticas, a o a como es el caso del wronskiano en las ecuaciones diferenciales lineales. Denicin 1.2.1. El determinante es una funcin que, aplicada a una matriz cuadrada, la o o transforma en un escalar. Notacin: Sea A una matriz cuadrada, el determinante de la matriz A se representa por |A| o o det(A). Sea Mnn el conjunto de todas las matrices cuadradas de orden n; entonces la denicin queda o de la siguiente manera. | | : Mnn R C o A |A|

Determinante de una matriz de orden uno Se llama determinante de una matriz de primer orden, formada por el elemento a11 , al propio elemento a11 . Ejemplo 1.2.1. Sea: A = (3) |A| = 3

Determinante de una matriz de orden dos Sea la matriz A= a11 a12 a21 a22 se dene el determinante de A como: |A| = a11 a22 a21 a12 Ejemplo 1.2.2. Sea: A = 3 2 1 4 |A| = 3(4) 2(1) = 10

Walter Arriaga Delgado

Algebra Lineal

23

Determinante de una matriz de orden tres a11 a12 a13 Sea: A = a21 a22 a23 a31 a32 a33 se dene el determinante de A como: |A| = (a11 a22 a33 + a12 a23 a31 + a21 a32 a13 ) (a31 a22 a13 + a21 a12 a33 + a32 a23 a11 ) 1 2 3 Ejemplo 1.2.3. Sea: A = 1 0 4 |A| = (0 16 3) (0 10 + 4) = 13 2 1 5

1.2.2.

Clculo de Determinantes a

a. Regla de Sarrus Se aplica la matriz trasladando las dos primeras las a la parte inferior y se aplican multiplicaciones a11 Sea: A = a21 a31 en direcciones de las diagonales, conforme se indica. a12 a13 a22 a23 a32 a33 a11 a12 a13 a21 a22 a23 |A| = a13 a22 a31 a23 a32 a11 a33 a12 a21 a31 a32 a33 a11 a12 a13 a21 a22 a23 a11 a22 a33 a21 a32 a13 a31 a12 a23

|A| = (a11 a22 a33 + a21 a32 a13 + a31 a12 a23 ) (a13 a22 a31 + a23 a32 a11 + a33 a12 a21 ) 1 2 3 Ejemplo 1.2.4. Halle el determinante de: A = 1 0 4 2 1 5 |A| = (0 16 3) (0 + 4 10) = 13 b. Regla de la Estrella Se multiplican los elementos siguientes en el esquema. a11 a12 a13 Sea: A = a21 a22 a23 a31 a32 a33 |A| = (a11 a22 a33 + a12 a23 a31 + a13 a21 a32 ) (a31 a22 a13 + a32 a23 a11 + a33 a21 a12 )

24

Algebra Lineal 2 3 Ejemplo 1.2.5. Halle el determinante de: A = 1 0 4 2 1 5 |A| = (0 16 3) (0 10 + 4) = 13 1

Walter Arriaga Delgado

1.2.3.

Propiedades Generales

1. Dada una matriz cuadrada A, se tiene que: |A| = |At |. 2. Dadas las matrices cuadradas A y B y del mismo orden se tiene que: |AB| = |A||B|. 3. Si una matriz cuadrada tiene dos las o dos columnas, respectivamente proporcionales; se dice entonces que su determinante es cero. 4. Si una matriz cuadrada A posee una la o una columna de ceros, su determinante es nulo. 5. Si se intercambian dos las o columnas consecutivas de una matriz cuadrada, su determinante slo cambia de signo. o 6. Si a una la o columna de una matriz cuadrada se le suma una cierta cantidad de veces otra la o columna, entonces la matriz resultante tiene el mismo determinante. 7. Si todos los elementos de una la o una columna se multiplican por un nmero k, todo u el determinante queda multiplicado por dicho nmero. u 8. El determinante de una matriz diagonal, triangular inferior o triangular superior es igual al producto de multiplicar los elementos de la diagonal principal. 9. El determinante de una matriz antisimtrica de orden impar es igual a cero. e 10. El determinante de una matriz hermitiana es un nmero real. u 11. El determinante de una matriz ortogonal A es +1 1. En efecto, de las propiedades del o determinante tenemos det(A At ) = det A det At = det A det A = (det A)2 = det I = 1, y por tanto, det A = 1. 12. Si A es una matriz nilpotente entonces |A| = 0. En efecto, si A es una matriz nilpotente de orden k, Ak = 0. Por tanto |Ak | = 0, luego |A|k = 0, y en consecuencia |A| = 0. 13. Sea A una matriz de orden n; se cumple que: |kA| = k n |A|; k es una escalar. 14. El determinante de una matriz cuadrada no var si a una la o una columna se le suma a una combinacin lineal de las o columnas paralelas. o

Walter Arriaga Delgado

Algebra Lineal

25

15. Si una la o columna de la matriz cuadrada A es combinacin lineal de otras paralelas, o su determinante es nulo. 16. Si descomponemos una la o una columna de una matriz cuadrada en suma de dos, podemos descomponer el determinante en suma de dos determinantes de la forma: a11 . . . a12 . . . a1n . . . a11 . . . a12 a1n . . . . . . ai2 . . . a11 . . . a12 . . . ai2 . . . a1n . . . ain . . .

ai1 + ai1 ai2 + ai2 ain + ain = ai1 . . . . . . . . . . . . an1 an2 ann

ain + ai1 . . . . . .

an1 an2 ann

an1 an2 ann

Observacin 1.2.1. No confundir con det(A + B) = det(A) + det(B), que esto no se cumple. o Observacin 1.2.2. Teniendo en cuenta la denicin del determinante, se pueden considerar o o dos matrices cuadradas especiales ms: a a. Matriz Singular. Una matriz es singular si su determinante es cero; es decir: det A = 0 A es singular a. Matriz Regular. Una matriz es regular llamada tambin no singular si su determinante e es diferente de cero; es decir: det A = 0 A es no singular Ejemplo 1.2.6.

Dada la matriz: A = Dada la matriz: B =1.2.4.

3 4 6 8

|A| = 24 24 = 0

A es singular 4 3 1 5 |B| = 20 3 = 17

B es no singular

Menores y Cofactoresorden n. a12 a22 ai2 a1j a2j . . . aij . . . a1n a2n ain ann

Considrese la matriz cuadrada de e a11 a21 A= ai1 an1

an2 anj

26

Algebra Lineal

Walter Arriaga Delgado

Denotaremos por Mij a la matriz cuadrada de orden (n 1) que resulta de eliminar la la i y la columna j de la matriz A luego: I. Al determinante de la matriz Mij (|Mij |) llemar menor del elemento aij de la matriz a A. II. Se dene cofactor del elemento aij denotado por Aij . Aij = (1)i+j |Mij | Ejemplo 1.2.7. Sea la matriz A = 1 5 3 1 4 2 3 2 2

2 3 el menor de 3 es: = 4 + 3 2 2 2 el menor de 5 es: el menor de 2 es: el menor de Nota: 1 3 3 4 4 2 3 5 2 = 3 8 = 11 = 6 20 = 26 4 = 9 + 4 = 5

2 es:

1 3

1. La diferencia entre el menor |Mij | y el cofactor Aij de un elemento aij es solamanete el signo. As : Aij = (1)i+j |Mij |, de donde:menor cofactor |Mij | si i + j es par Aij = |M | si i + j es impar ij

2. El signo que relaciona a Aij y |Mij | del elemento aij de la matriz A se puede hallar en forma prctica mediante el siguiente arreglo: a + + + + + . . . . . . . . .

Walter Arriaga Delgado

Algebra Lineal

27

As el signo de a35 es positivo puesto que (3 + 5) es par. El signo del elemento a25 es negativo ya que (2 + 5) es impar.

1.2.5.

Clculo de Determinantes por Cofactores a

Teorema de Laplace: El determinante de una matriz A = (aij )mn es igual a la suma de los productos obtenidos de multiplicar los elementos de cualquier la (o columna) por sus respectivos cofactores:n

|A| = ai1 Ai1 + ai2 Ai2 + . . . + ain Ain =j=1 n

aij Aij

|A| = a1j A1j + a2j A2j + . . . + anj Anj =i=1

aij Aij

Ejemplo 1.2.8. Calcular el determinate de: 7 A = 2 0 4 1 3 2 3 5 Solucin: o Elegimos la la 2, entonces: 5 7 3 7 3 5 |A| = (2) +0 4 3 2 1 2 1 3

|A| = 2(10 + 21) + 0 4(9 5)

|A| = 118 Nota: Lo ms recomendable es escoger la la o columna que tenga la mayor cantidad de ceros. a

1.3.1.3.1. 1.3.2. 1.3.3.

Matriz InversaMatriz de cofactores Adjunta de una matriz Mtodo de Gauss Jordan e

Teorema 1.3.1. Sean A y B matrices cuadradas no singulares: (AB)1 = B 1 A1

28 (A1 )1 = A

Algebra Lineal

Walter Arriaga Delgado

(A)1 = 1 A1 ; es escalar. |AdjA| = |A|n1 ; donde n es el orden de la matriz A. La inversa de una matriz hermitiana es tambin hermitiana. e

1.4. 1.5.

Rango de una Matriz Otras matrices importantes

Matriz diagonalUna matriz diagonal es una matriz cuadrada en que las entradas son todas nulas salvo en la diagonal principal, y stas pueden ser nulas o no. e Toda matriz diagonal es tambin una matriz simtrica, triangular (superior e inferior) y e e (si las entradas provienen del cuerpo R o C) normal. Otro ejemplo de matriz diagonal es la matriz identidad. Operaciones matriciales Las operaciones de suma y producto de matrices son especialmente sencillas para matrices diagonales. Vamos a emplear aqu la notacin de diag(a1 , . . . , an ) para una matriz diagonal o que tiene las entradas a1 , . . . , an en la diagonal principal, empezando en la esquina superior izquierda. Entonces, para la suma se tiene: diag(a1 , . . . , an ) + diag(b1 , . . . , bn ) = diag(a1 + b1 , . . . , an + bn ) y para el producto de matrices, diag(a1 , . . . , an ) diag(b1 , . . . , bn ) = diag(a1 b1 , . . . , an bn ) La matriz diagonal diag(a1 , . . . , an ) es invertible si y slo si las entradas a1 , . . . , an son todas o distintas de 0. En este caso, se tiene diag(a1 , . . . , an )1 = diag(a1 , . . . , a1 ) n 1 En particular, las matrices diagonales forman un subanillo del anillo de las matrices de n n. Multiplicar la matriz A por la izquierda con diag(a1 , . . . , an ) equivale a multiplicar la la i-sima de A por ai para todo i. Multiplicar la matriz A por la derecha con diag(a1 , . . . , an ) e equivale a multiplicar la columna i-sima de A por ai para todo i. e

Walter Arriaga Delgado Usos

Algebra Lineal

29

Las matrices diagonales tienen lugar en muchas reas del lgebra lineal. Debido a la sena a cillez de las operaciones con matrices diagonales y el clculo de su determinante y de sus a valores y vectores propios, siempre es deseable representar una matriz dada o transformacin o lineal como una matriz diagonal. De hecho, una matriz dada de n n es similar a una matriz diagonal si y slo si tiene n o autovectores linealmente independientes. Tales matrices se dicen diagonalizables. En el cuerpo de los nmeros reales o complejos existen ms propiedades: toda matriz u a normal es similar a una matriz diagonal (teorema espectral) y toda matriz es equivalente a una matriz diagonal con entradas no negativas.

Matriz bandaUna matriz cuadrada se le llama Matriz Banda cuando es una matriz donde los valores no nulos son connados en un entorno de la diagonal principal, formando una banda de valores no nulos que completan la diagonal principal de la matriz y ms diagonales en cada uno de a sus costados. Escrito formalmente, una matriz A = (ai,j )nn es una matriz banda si todos sus elementos son cero fuera de una zona diagonal cuyo rango se determina por las constantes k1 y k2 : ai,j = 0 si j < i k1 o j > i + k2 ; k1 , k2 0

Los valores k1 y k2 son el semiancho de banda izquierdo y derecho respectivamente. El ancho de banda de una matriz es k1 + k2 + 1, y se puede denir como el nmero menor de diagonales u adyacentes con valores no nulos. Una matriz banda con k1 = k2 = 0 es una matriz diagonal. Una matriz banda con k1 = k2 = 1 es una matriz tridiagonal; cuando k1 = k2 = 2 se tiene una matriz pentadiagonal y as sucesivamente. Una matriz banda con k1 = k2 = p, dependiendo del nmero p, se le puede llamar matriz u p-banda, formalmente se puede denir como ai,j = 0 si |i j| > p ; p0

De una matriz banda con k1 = 0, k2 = n 1, se obtiene la denicin de una matriz o triangular inferior. De forma similar, para k1 = n 1, k2 = 0, se obtiene la denicin de una o matriz triangular superior.

30

Algebra Lineal

Walter Arriaga Delgado

Matriz normalSea A matriz compleja cuadrada, entonces es una matriz normal si y slo si o A A = AA donde A es el conjugado transpuesto de A (tambin llamado hermitiano). e Ejemplo 1.5.1. La matriz i i i i i

i i i i i i i i

de orden 2 es normal, debido a que: i i = 2 0 0 2 = i i i i i i =

i i i i i i i i

=

i i

i i

i i i

Una importante propiedad de este tipo de matrices es que son diagonalizables.

Matriz denida positivaUna matriz denida positiva es una matriz hermitiana que es anloga a los nmeros reales a u positivos. Deniciones equivalentes Sea M una matriz hermitiana cuadrada n n, se dice denida positiva si cumple con una (y por lo tanto, las dems) de las siguientes formulaciones equivalentes: a 1. Para todos los vectores no nulos z Cn tenemos que z M z > 0. Ntese que z M z es siempre real. o 2. Todos los autovalores i de M son positivos. (Recordamos que los autovalores de una matriz hermitiana o en su defecto, simtrica, son reales.) e 3. La funcin x, y = x M y dene un producto interno en Cn . o 4. Todos los menores principales de M son positivos. O lo que es equivalente; todas las siguientes matrices tienen determinantes positivo. la superior izquierda de M de dimensin 1 1 o la superior izquierda de M de dimensin 2 2 o la superior izquierda de M de dimensin 3 3 o la superior izquierda de M de dimensin (M 1) (M 1) o

Walter Arriaga Delgado M en s misma

Algebra Lineal

31

Anlogamente, si M es una matriz real simtrica, se reemplaza Cn por Rn , y la conjugada a e transpuesta por la transpuesta. Propiedades Toda matriz denida positiva es inversible (su determinante es positivo), y su inversa es denida positiva. Si M es una matriz denida positiva y r > 0 es un nmero real, entonces rM es denida u positiva. Si M y N son matrices denidas positivas, entonces la suma M +N , el producto M N M y N M N son denidas positivas, adems si M N = N M , entonces M N es tambin denida a e positiva. Toda matriz denida positiva M , tiene al menos una matriz ra cuadrada N tal que z N2 = M. Observacin 1.5.1. La matriz hermitiana M se dice: o denida negativa si x M x < 0 para todos los vectores x Kn no nulos. semidenida positiva si x M x 0 para todo x Kn . semidenida negativa si x M x 0 para todo x Kn . Una matriz hermitiana se dice indenida si no entra en ninguna de las clasicaciones anteriores. Observacin 1.5.2. Caso no hermitiano. Una matriz real M puede tener la propiedad o 1 1 es un ejemxT M x > 0 para todo vector real no nulo sin ser simtrica. La matriz e 0 1 plo. En general, tendremos xT M x > 0 para todo vector real no nulo x si y slo si la matriz o simtrica (M + M T )/2, es denida positiva. e

Matriz permutacin oLa matriz permutacin es la matriz cuadrada con todos sus n n elementos iguales a 0, o excepto uno cualquiera por cada la y columna, el cual debe ser igual a 1. De acuerdo a esta denicin existen n! matrices de permutacin distintas, de las cuales una mitad corresponde o o a matrices de permutacin par (con el determinante igual a 1) y la otra mitad a matrices de o permutacin impar (con el determinante igual a -1). o

32 Para n = 3 se tiene: Matrices de 1 0 0 0 0 1 0 1 0 0 1 0 permutacin o 0 1 0 0 0 0 1 0 1 par: 1 0 0 1 0 0

Algebra Lineal

Walter Arriaga Delgado

Matrices de permutacin impar: o 1 0 0 0 1 0 0 0 1 0 1 0 1 0 0 0 0 1 0 1 0 0 0 1 1 0 0 Puede notarse que las matrices de permutacin conforman un grupo de orden n! respecto o al producto. Propiedades El elemento neutro del grupo es la matriz identidad. El elemento inverso de cada elemento del grupo de matrices de permutacin es la matriz o traspuesta correspondiente. Cada elemento del grupo de matrices de permutacin es una matriz ortogonal. o El producto de matrices de permutacin par siempre genera una matriz de permutacin o o par. El producto de matrices de permutacin impar siempre genera una matriz de pero mutacin par. o El producto de matrices de permutacin de paridad distinta siempre genera una matriz o de permutacin impar. o Observe que las matrices de permutacin par conforman un semigrupo y que adems el o a grupo de matrices de permutacin no es conmutativo. o Cada elemento del grupo de matrices de permutacin fuera del semigrupo es una matriz o simtrica. e

JacobianoEl jacobiano es una abreviacin de la matriz jacobiana y su determinante, el determinante o Jacobiano. Son llamados as en honor al matemtico Carl Gustav Jacobi. a

Walter Arriaga Delgado

Algebra Lineal

33

La matriz Jacobiana es una matriz formada por las derivadas parciales de primer orden de una funcin. Una de las aplicaciones ms interesantes de esta matriz es la posibilidad de o a aproximar linealmente a la funcin en un punto. En este sentido, el Jacobiano representa la o derivada de una funcin multivariable. o Supongamos F : Rn Rm es una funcin que va del espacio euclidiano n-dimensional o a otro espacio euclideano m-dimensional. Esta funcin est determinada por m funciones o a reales: y1 (x1 , . . . , xn ), . . . , ym (x1 , . . . , xn ). Las derivadas parciales de estas (si existen) pueden ser organizadas en una matriz m por n, la matriz Jacobiana de F : y1 y1 x1 xn . . .. . . . . . y ym m x1 xn Esta matriz es denotada por JF (x1 , . . . , xn ) o como (y1 , . . . , ym ) . (x1 , . . . , xn )

Cuadrado latinoUn cuadrado latino es una matriz de n n elementos, en la que cada casilla est ocupada a por uno de los n s mbolos de tal modo que cada uno de ellos aparece exactamente una vez en cada columna y en cada la. Las siguientes matrices son cuadrados latinos: a 1 2 3 b 2 3 1 c 3 1 2 d c a d d b a a c b b d c

Los cuadrados latinos se dan como una Tabla de multiplicar (Tabla Cayley) de quasigrupos. Estos tienen su aplicacin en el diseo de experimentos. o n El nombre de Cuadrados Latinos se origina con Leonhard Euler quin utiliz caracteres e o Latinos como s mbolos. Un cuadrado latino se dice que est reducido (o normalizado o de forma estandarizada) si a la primera la y la primera columna estn en orden natural. Por ejemplo, el primer cuadrado a est reducido, porque la primera la y la primera columna son 1, 2, 3. a Es posible hacer un cuadrado latino permutando (reordenando) las las y las columnas. Representacin por un Arreglo Ortogonal o Si cada entrada de un cuadrado latino de n n se escribe como una tripleta (f, c, s) donde f es la la, c la columna y s el s mbolo (para nuestro caso un nmero), obtenemos n2 u

34

Algebra Lineal

Walter Arriaga Delgado

tripletas llamado arreglo ortogonal del cuadrado. Por ejemplo, para el primer cuadrado latino de nuestros ejemplos, el arreglo ortogonal ser as a {(1, 1, 1), (1, 2, 2), (1, 3, 3), (2, 1, 2), (2, 2, 3), (2, 3, 1), (3, 1, 3), (3, 2, 1), (3, 3, 2)} donde, por ejemplo, la tripleta (2,3,1) representa que el valor en la la 2 columna 3 es 1. La representacin de un cuadrado latino puede ser escrita en trminos del arreglo ortogonal o e quedando as : Existen n2 tripletas de la forma (f, c, s), donde 1 f, c, s n. Todos los pares (f, c) son diferentes, todos los pares (f, s) son diferentes, y todos los pares (c, s) son diferentes. La representacin por arreglos ortogonales muestra que las las, columnas y s o mbolos juegan un papel muy similar, esto estar un poco ms claro conforme nos adentremos en el tema. a a Muchas operaciones sobre un Cuadrado latino produce otro Cuadrado latino (por ejemplo, alternar las). Si permutamos las las, permutamos las columnas, y permutamos los s mbolos de un Cuadrado latino obtenemos un nuevo Cuadrado latino que decimos que es isotpico del o primero. El isotopismo es una relacin de equivalencia, en base a esto se dice que todos o los Cuadrados latinos estn divididos en subgrupos, llamados clases isotpicas, segn esto dos a o u Cuadrados de la misma clase se dice que son isotpicos, y dos de clases diferentes son no o isotpicos. o Otro tipo de operacin es simple de explicar usando la representacin de estos por arreglos o o ortogonales. Si reorganizamos consciente y sistemticamente los tres elementos de cada tripleta a (f, c, s) por (c, f, s) lo cual corresponde a una transposicin del cuadrado (reejado en la o diagonal principal), o podemos remplazar cada tripleta (f, c, s) por (c, s, f ), lo que es una operacin ms complicada. Todas juntas nos dan 6 posibilidades, incluida no hacer nada, o a dndonos 6 Cuadrados Latinos llamados conjugados del cuadrado original. a Finalmente, podemos combinar estas dos operaciones equivalentes: Dos Cuadrados Latinos son paratpicos si uno de ellos es conjugado del otro. Esto es nuevamente una relacin de o o equivalencia, con la clase de equivalencia principal llamada Clase Principal, especies o clase paratpica. Cada clase contiene 6 clases isotpicas. o o El popular rompecabezas Sudoku es un caso especial de Cuadrados Latinos; toda solucin o de un Sudoku es un Cuadrado Latino. Un Sudoku impone una restriccin adicional a los o subgrupos de 3 3, estos solo deben contener los d gitos del 1 al 9 (en la versin estndar). o a El rompecabezas conocido como Diamante 16 ilustra un concepto generalizado de la ortogonalidad de los Cuadrados Latinos: El Cuadrado Ortogonal (A. E. Brouwer, 1991).

Walter Arriaga Delgado

Algebra Lineal

35

1.6.

Sistemas de ecuaciones lineales

36

Algebra Lineal

Walter Arriaga Delgado

1.7.

Operaciones Elementales

Se llaman operaciones elementales o transformaciones elementales por las o columnas sobre una matriz a las siguientes operaciones: Operaciones elementales con las Dada la matriz A Mmn , cuyas las son F1 , F2 , . . . , Fm . Las operaciones elementales con las son: Fij A : Intercambia dos las de A. Fi () : Multiplica la la Fi de A por un escalar = 0. Fij () : Multiplica la la Fi de A por un escalar = 0 y luego suma a la la Fj . Esta operacin se representa por el vector la Fi + Fj . o Operaciones elementales con columnas Dada la matriz A Mmn , cuyas columnas son C1 , C2 , . . . , Cm . Las operaciones elementales con columnas son: Cij A : Intercambia dos columnas de A. Ci () : Multiplica la columna Ci de A por un escalar = 0. Cij () : Multiplica la columna Ci de A por un escalar = 0 y luego suma a la columna Cj . Esta operacin se representa por el vector columna Ci + Cj . o 3 1 9 2 Ejemplo 1.7.1. Sea la matriz A = 2 5 1 1, realicemos las siguientes opera 4 7 8 0 ciones: 3 1 9 2 2 5 1 1 2 5 1 1 F12 3 1 9 2 4 7 8 0 4 7 8 0 3 1 9 2 3 2 9 1 2 5 1 1 C24 2 1 1 5 4 7 8 0 4 0 8 7 3 1 9 2 3 1 9 2 (5) 2 5 1 1 F2 10 25 5 5 4 7 8 0 4 7 8 0

Walter Arriaga Delgado 2 4 3 2 4 3 2 4 3 1 5 9 2 1

Algebra Lineal 3 1 18 5 2 2 1 7 16 0 1 9 2 5 1 1 9 26 4 89 9 2 45 1 1 73 8 0

37

C3 (2) 1 2 7 8 0 4 1 9 2 3 3 1 F(2) 2 5 1 1 7 8 0 2 3 1 9 2 2 C3 (10) 5 1 1 2 4 7 8 0

1.7.1.

Matriz escalonada

Una matriz A Mmn , de la forma: 1 a12 0 0 0 0 A= 0 0 . . . . . . 0 0

a13 a14 a15 a1n 1 0 0 . . . 0

a24 a25 a2n 0 1 a3n 0 0 0 . . . . . . . . . 0 0 0

con r las no nulas y s las nulas. Llamaremos pivote de una la (o columna) de A al primer elemento no nulo de dicha la (o columna), si lo hay. La matriz A se dice que es escalonada por las si verica las siguientes condiciones: El pivote de cada la no nula es 1. Si A tiene las compuestas enteramente por ceros (las nulas), estas estn agrupadas en a la parte inferior de la matriz. El pivote de cada la no nula est a la derecha del de la la anterior. a Una matriz escalonada se dice reducida si la columna arriba de cada pivote tambien son ceros. De igual forma se puede denir la matriz escalonada y escalonada reducida por columnas. Ejemplo 1.7.2. Matrices escalonadas: 1 3 2 5 1 2 0 0 1 2 5 7 0 1 7 4 , 0 1 1 , 0 0 1 7 2 0 0 1 10 0 0 0 0 0 0 0 1

38

Algebra Lineal

Walter Arriaga Delgado

Ejemplo 1.7.3. Matrices escalonadas reducidas: 1 0 0 0 1 0 0 0 1 0 0 0 0 1 0 0 , 0 1 0 , 0 0 1 0 0 0 0 0 1 0 0 0 0 0 0 0 1 Observacin 1.7.1. o Toda matriz puede llevarse por operaciones elementales de las a la forma escalonada. El algoritmo para hacerlo se llama mtodo de Gauss o del pivote. e La forma escalonada de una matriz no es unica.

1.7.2.

Matrices equivalentes

Dos matrices A y B se denominan equivalentes si una de ellas se deduce de la otra mediante una susecin nita de transformaciones elementales de l o nea (la o columna). El siguiente ejemplo nos muestra que toda matriz de orden m n puede ser reducida mediante operaciones elementales la (columna) a una matriz en forma escalonada por las (columnas). 2 5 3 1 2 2 Ejemplo 1.7.4. Reducir a la forma escalonada por las la matriz: A = 3 4 1 2 3 2 Solucin o 2 5 3 1 2 2 1 2 2 1 2 2 1 2 2 2 5 3 F 2 (2) 0 1 1 F 3 (3) 0 1 1 F12 A= 1 1 3 4 1 3 4 1 3 4 1 0 2 5 2 3 2 2 3 2 2 3 2 2 3 2 1 2 2 1 2 2 1 2 2 0 1 1 F 3 (2) 0 1 1 F 4 (1) 0 1 1 4 F1 (2) 2 2 0 0 7 0 0 7 0 2 5 0 0 3 0 1 2 0 1 2 1 2 2 1 2 2 0 1 1 F 4 (3) 0 1 1 F3 (1/7) 3 = B 0 0 1 0 0 1 0 0 0 0 0 3 Observacin 1.7.2. Una matriz cuadrada A Mnn escalonada es una matriz triangular o superior, pero no todas las matrices triangulares superiores son matrices escalonadas.

Walter Arriaga Delgado

Algebra Lineal

39

Anteriormente hemos visto que una matriz triangular era inversible si y slo si todos los o trminos de la diagonal principal no son cero; esta caracter e stica es tambin vlida para las e a matrices escalonadas cuadradas. Veremos a continuacin las ventajas que ofrece la reduccin de una matriz cuadrada en otra o o que tenga forma escalonada.

1.7.3.

Rango de una matriz

El rango de una matriz es igual al nmero de las no nulas que quedan en la ultima u interacion de las sucesivas transformaciones elementales que se hacen con la matriz. Se deduce que para hallar el rango de una matriz es suciente transformarla a su forma escalonada. Como dos matrices equivalentes tienen el mismo rango, el rango de dicha matriz ser igual al rango de la matriz escalonada. Si designamos por r el nmero de las no nulas a u de la matriz escalonada, entonces el rango de la matriz se denota: (A) = r 0 1 Ejemplo 1.7.5. Hallar el rango de la matriz A = 3 0 2 2 4 4 5 1 7 1 2 3 0 tendremos: 3 4 22 2 10

Solucin: Realizando sucesivamente las transformaciones elementales o 0 2 4 1 4 5 1 4 1 4 5 0 2 4 2 F 3 (3) y F 5 (2) 0 F12 1 1 A = 3 1 7 3 1 7 0 11 0 1 2 0 1 2 0 1 2 3 0 2 3 0 0 5 1 4 3 1 4 3 0 1 2 F 3 (11) , F 5 (5) , F 4 (1) 0 1 2 F2 (1/2) 2 2 2 0 11 22 0 0 0 = B 0 0 0 0 1 2 0 0 0 0 5 10 La ultima matriz escalonada B tiene 2 las no nulas, luego: (B) = (A) = 2

40

Algebra Lineal 31 17 43

Walter Arriaga Delgado 94 53 132 94 54 134 32 20 48 se tiene: 17 43 2 3 3 5 1 2

25 75 Ejemplo 1.7.6. Hallar el rango de la matriz A = 75 25 Solucin: o 25 75 A= 75 25 25 0 0 0

Por el mtodo de las transformaciones elementales e 25 31 25 31 17 43 31 17 43 75 94 53 132 0 1 94 53 132 0 0 1 2 0 1 94 54 134 32 20 48 0 1 3 5 0 0 1 1 1/5 1 25 5 25 1 2 3 0 1 2 3 = B 0 0 1 2 0 1 2 0 0 0 0 0 1 2

La ultima matriz escalonada tiene tres las no nulas, por tanto (B) = (A) = 3

1.8.

Matriz Inversa

Si A Mnn , se dice que A es invertible o tiene inversa si existe una matriz B Mnn tal que AB = BA = I. La matriz B recibe el nombre de matriz inversa de A y se denota por A = B 1 , anlogamente la matriz A es la inversa de B y se expresa por A = B 1 . Entonces a se tiene: AA1 = A1 A = I Propiedades: Si A y B son matrices cuadradas invertibles de orden n, entonces: (A1 )1 = A (AB)1 = B 1 A1 (At )1 = (A1 )t Teorema 1.8.1. Una matriz cuadrada tiene inversa si y solo si es una matriz no singular, en tal caso se dice que la matriz es invertible. Teorema 1.8.2. Si una matriz cuadrada A es invertible entonces su inversa es unica. (1.2)

Walter Arriaga Delgado

Algebra Lineal

41

Demostracin. Supongamos que B y C son dos matrices inversas de A. Debemos probar que o B = C. En efecto. Si B es matriz inversa de A entonces AB = BA = I, adems C es matriz inversa a de A entonces AC = CA = I. Tambin se cumple por la ley asociativa de la multiplicacin de e o matrices que B(AC) = (BA)C. Entonces: B = BI = B(AC) = (BA)C = IC = C de donde se obtiene que B = C.

1.8.1.

Matriz de cofactores a11 a12 a13 a1n

Sea la matriz

a21 a22 a23 a1n A= . . . . .. . . . . . . . . . an1 an2 an3 ann Si Aij es el cofactor del elemento aij , entonces A11 A12 A21 A22 A= . . . . . . An1 An2 se le conoce como matriz de cofactores. la matriz B denida como: A13 A1n A23 A1n . . .. . . . . . An3 Ann

1.8.2.

Adjunta de una matriz

La Adjunta de una matriz cuadrada A es la traspuesta de la matriz que se obtiene al sustituir cada elemento aij por su cofactor Aij . La Adjunta de A se denota por: Adj(A). Adj(A) = B t 1 2 3 A= 3 2 5 1 4 3

Ejemplo 1.8.1. Sea la matriz:

42 2 5

Algebra Lineal 1

Walter Arriaga Delgado 2

A11 = (1)1+1

4 3 3 5

= 26

A23 = (1)2+3

1 4 2 3 2 5 1 3 3 5 1 2 3 2

= 6

A12 = (1)1+2

1 3 3 2

=4

A31 = (1)3+1

=4

A13 = (1)1+3

1 4 2 3

= 14

A32 = (1)3+2

=4

A21 = (1)2+1

4 3 1 3

= 18

A33 = (1)3+3

= 4

A22 = (1)2+2

1 3

=0

26 4 14 luego la matriz de cofactores es: cofac(A) = 18 0 6 y la adjunta de A estar dada a 4 4 4 por: 26 18 4 Adj(A) = 4 (1.3) 0 4 14 6 4 Teorema 1.8.3. Sea A una matriz invertible, entonces la matriz inversa est dada por: a A1 = Adj(A) |A| Ejemplo 1.8.2. Hallar la matriz inversa de A = 3 26 18 4 De 1.3 se tiene que: AdjA = 4 0 4 . 14 6 4 1 Adems a 3 2 2 3 5 = 24, de donde: 26 18 4 1 4 = 0 4 24 14 6 4 1 2 2 3 5 1 4 3

1 4 3

A1

Walter Arriaga Delgado

Algebra Lineal

43

1.8.3.

Matrices elementales

Una matriz cuadrada E de orden n n se llama matriz elemental si se puede obtener a partir de la matriz identidad, In , de orden n n mediante una sola operacin fundamental o con las. Notacin: Una matriz elemental se denota por E, o por o forma en que se obtuvo de I. Ejemplo 1.8.3. Veamos tres matrices elementales Matriz 1 0 0 1 0 0 Matriz 1 0 0 1 0 0 Matriz 1 0 0 1 0 0 obtenida multiplicando segunda la de I por 5. la 0 1 0 0 F2 (5) 0 0 5 0 = 5F2 1 0 0 1 obtenida multiplicando la primera la de I por 3 y sumndola a la tercera la. a 0 1 0 0 3 F1 (3) 0 1 0 = F3 3F1 0 1 3 0 1 obtenida intercambiando la segunda y tercera la de I. 0 1 0 0 F23 0 0 0 1 = F23 1 0 1 0 =0 0 1 0 0 0 = 0 1 0 1 0 0 1 0 0 1 0 0 1 0 0 1 0 0 1 Fij , Fi , Fj + Fi segn la u

Considere los siguientes tres productos, con 1 0 0 1 0 0 0 0 1/ 0 0 1 0 0 1 0 0 1 0 1 0 0 0 1 1 0 0 1 0 0 1 0 0 1 0 0 inversa es del mismo tipo (vea tabla 1.1).

(1.4)

0 0 1 1 0 = 0 0 1 0 0 0 1 = 0 0 1 1 0 0

(1.5)

(1.6)

Las ecuaciones 1.4, 1.5 y 1.6 sugieren que toda matriz elemental es invertible y que su

Teorema 1.8.4. Toda matriz elemental es invertible. El inverso de una matriz elemental es una matriz del mismo tipo.

44

Algebra Lineal

Walter Arriaga Delgado Multiplicar

Matriz mental E

eletipo

Muliplicar A por la izquierda Multiplique la

Representacin por o simblica o izquierda, E 1 Multiplique Fi 1/

la

Representacin o simblica o

la

Multiplicacin o

la i de A por =0 Multiplique la la i de A por y sume a la la j Intercambie las las i y j

la i de A por Multiplique la

1 Fi

Suma

Fj + Fi

la i de A por y sume a la la j Intercambie las las i y j

Fj Fi

Permutacin o

Fij

Fij

Cuadro 1.1: Matrices elementales Nota: El inverso de una matriz elemental se puede encontrar por inspeccin. No es neceo sario hacer clculos. a Teorema 1.8.5. Una matriz cuadrada es invertible si y solo si es el producto de matrices elementales. 2 4 6 Ejemplo 1.8.4. Vericar que la matriz A = 4 5 6 es invertible y expresarla como un 3 1 2 producto de matrices elementales.

1.8.4.

Mtodo de Gauss Jordan e

El mtodo de Gauss Jordan consiste en lo siguiente: e

Dada la matriz cuadrada A de orden n n, se construye la matriz rectangular de ordenn 2n llamada matriz aumentada (A | I).

Se utiliza las transformaciones elementales por las para poner la matriz A a su formaescalonada reducida, obtenindose la matriz (I | B). e1 .

La matriz inversa en este caso es B = A

Observacin 1.8.1. Si uno de los elementos de la diagonal principal de la matriz escalonada o reducida E en (E | B) es cero, entonces la matriz A no es invertible

Walter Arriaga Delgado

Algebra Lineal

45

2 4 6 Ejemplo 1.8.5. Determinar si la matriz A = 4 5 6 es invertible. Si as lo fuera, 3 1 2 calcular su inversa. Solucin o Primero efectuamos las operaciones con las para reducir A a una matriz escalonada E. Para ello formamos la matriz (A | I). 1 2 4 6 | 1 0 0 (A|I) = 4 5 6 | 0 1 0 = 4 3 3 1 2 | 0 0 1 1 1 1 2 3 | 2 0 0 2 1 0 1 = 0 = 2 | 3 3 0 0 5 11 | 3 0 1 0 2 2 1 0 1 | 5 0 1 6 3 2 1 = 0 1 2 | 3 0 = 0 3 11 5 0 0 1 | 6 1 0 3 como A se redujo a I, se tiene que: B = A1 = 13 3 11 6 8 37 3 11 3 5 3

2 5 1 0 1 0 0 1 0

1 2 3 | 1 0 0 0 0 2 = 0 3 6 | 2 1 0 6 | 0 1 0 3 2 | 0 0 1 0 5 11 | 2 0 1 2 1 | 5 0 6 3 2 1 2 | 3 3 0 1 | 11 5 1 6 3 7 8 1 0 | 3 3 13 0 | 11 2 = (I|B) 3 3 11 5 1 | 6 1 3 3 |1 2

1 16 14 6 1 2 = 26 22 12 6 1 11 10 6

1.9.1.9.1.

Sistemas de Ecuaciones LinealesAlgo de historia

La primera fase, que comprende el periodo de 1700 a. de C. a 1700 d. de C., se caracteriz por la invencin gradual de s o o mbolos y la resolucin de ecuaciones. Dentro de esta fase o encontramos un lgebra desarrollada por los griegos (300 a. de C.), llamada lgebra geomtrica, a a e rica en mtodos geomtricos para resolver ecuaciones algebraicas. e e La introduccin de la notacin simblica asociada a Vi`te (1540-1603), marca el inicio de o o o e una nueva etapa en la cual Descartes (1596-1650) contribuye de forma importante al desarrollo de dicha notacin. En este momento, el lgebra se convierte en la ciencia de los clculos o a a simblicos y de las ecuaciones. Posteriormente, Euler (1707-1783) la dene como la teor o a de los clculos con cantidades de distintas clases (clculos con nmeros racionales enteros, a a u fracciones ordinarias, ra ces cuadradas y cbicas, progresiones y todo tipo de ecuaciones). u Para llegar al actual proceso de resolucin de la ecuacin ax + b = c han pasado ms de o o a 3.000 aos. n Los egipcios nos dejaron en sus papiros (sobre todo en el de Rhid 1,650 a.c. y el de Mosc 1,850 a.c.) multitud de problemas matemticos resueltos. La mayor de ellos son de u a a

46

Algebra Lineal

Walter Arriaga Delgado

tipo aritmtico y respond a situaciones concretas de la vida diaria; sin embargo, encone an tramos algunos que podemos clasicar como algebraicos, pues no se reere a ningn objeto u concreto. En stos, de una forma retrica, obten una solucin realizando operaciones con e o an o los datos de forma anloga a como hoy resolvemos dichas ecuaciones. a Las ecuaciones ms utilizadas por los egipcios eran de la forma: a x + ax = b x + ax + bx = 0 donde a, b y c eran nmeros conocidos y x la incgnita que ellos denominaban aha o montn. u o o Una ecuacin lineal que aparece en el papiro de Rhid responde al problema siguiente: o Un montn y un sptimo del mismo es igual a 24. o e 1 x = 24. 7 La solucin la obten por un mtodo que hoy conocemos con el nombre de mtodo o an e e de la falsa posicin o regula falsi. Consiste en tomar un valor concreto para la incgnita, o o probamos con l y si se verica la igualdad ya tenemos la solucin, si no, mediante clculos e o a obtendremos la solucin exacta. o Los babilonios (el mayor nmero de documentos corresponde al periodo 600 a.c. a 300 u d.c.) casi no le prestaron atencin a las ecuaciones lineales, quizs por considerarlas demasiado o a elementales, y trabajaron ms los sistemas de ecuaciones lineales y las ecuaciones de segundo a grado. Los babilonios llamaban a las incgnitas con palabras tales como longitud, anchura, o rea, o volumen , sin que tuvieran relacin con problemas de medida. a o Un ejemplo tomado de una tablilla babilnica plantea la resolucin de un sistema de o o ecuaciones en los siguientes trminos: e 1/4anchura + longitud = 7manos longitud + anchura = 10manos Para resolverlo comienzan asignando el valor 5 a una mano y observaban que la solucin o pod ser: anchura = 20, longitud = 30. Para comprobarlo utilizaban un mtodo parecido al a e de eliminacin. En nuestra notacin, ser o o a: y + 4x = 28 y + x = 10 restando la segunda de la primera, se obtiene 3x = 18, es decir, x = 6 e y = 4. Tambin resolv sistemas de ecuaciones, donde alguna de ellas era cuadrtica. e an a Los matemticos griegos no tuvieron problemas con las ecuaciones lineales y, exceptuando a a Diophante (250 d.c.), no se dedicaron mucho al lgebra, pues su preocupacin era como a o hemos visto, mayor por la geometr Sobre la vida de Diophante aparece en los siglos V o VI a. un epigrama algebraico que constituye una ecuacin lineal y dice: o En notacin moderna, la ecuacin ser x + o o a: Transente, sta es la tumba de Diophante: es l quien con esta sorprendente disu e e tribucin te dice el nmero de aos que vivi. Su juventud ocup su sexta parte, o u n o o despus durante la doceava parte su mejilla se cubri con el primer vello. Pas an e o o u una sptima parte de su vida antes de tomar esposa y, cinco aos despus, tuvo un e n e precioso nio que, una vez alcanzada la mitad de la edad de su padre, pereci de n o una muerte desgraciada. Su padre tuvo que sobrevivirle, llorndole durante cuatro a aos. De todo esto, deduce su edad. n Los griegos resolv algunos sistemas de ecuaciones, pero uti1izando mtodos geomtricos. an e e Thymaridas (400 a.c.) hab encontrado una frmula para resolver un determinado sistema a o

Walter Arriaga Delgado

Algebra Lineal

47

de n ecuaciones con n incgnitas. Diophante resuelve tambin problemas en los que aparec o e an sistemas de ecuaciones, pero transformndolos en una ecuacin lineal. a o Diophante slo aceptaba las soluciones positivas, pues lo que buscaba era resolver probo lemas y no ecuaciones. Utiliz ya un lgebra sincopada como hemos sealado anteriormente. o a n Sin embargo, unas de las dicultades que encontramos en la resolucin de ecuaciones por o Diophante es que carece de un mtodo general y utiliza en cada problema mtodos a veces e e excesivamente ingeniosos. Los sistemas de ecuaciones aparecen tambin en los documentos indios. No obstante, no e llegan a obtener mtodos generales de resolucin, sino que resuelven tipos especiales de ecuae o ciones. El libro El arte matemtico , de autor chino desconocido (siglo III a.c.), contiene algunos a problemas donde se resuelven ecuaciones. En ellos encontramos un esbozo del mtodo de las e matrices para resolver sistemas de ecuaciones lineales. Uno de dichos problemas equivale a resolver un sistema de tres ecuaciones lineales por dicho mtodo matricial. e Los primeros documentos matemticos que existen (datan del siglo III d.c.) son los Sula vastras, donde se recogen todos los conocimientos necesarios para construir los templos. En u stos aparece el siguiente problema: e Hallar el lado de un rectngulo, conociendo el otro lado y sabiendo que su rea es igual a a al rea de un cuadrado dado. a Lo resolv utilizando el mtodo de la falsa posicin, como los egipcios. an e o Posteriormente, Brahmagupta (siglo VII) expresa, ya de forma sincopada, cmo resolver o ecuaciones lineales. La incgnita la representaba por la abreviatura ya , y las operaciones con o la primera s laba de las palabras. Dada la ecuacin ax + b = cx + d, la solucin vendr dada dividiendo la diferencia de los o o a trminos conocidos entre la diferencia de los coecientes de los desconocidos, esto es, e x= db ac

Estos mtodos pasaron a los rabes que los extendieron por Europa. Al algebrista Abue a Kamil (siglo IX y X) se le atribuye una obra donde trata la solucin de ecuaciones lineales o por simple y doble falsa posicin. o

1.9.2.

Introduccin o

El objetivo general de este tema es discutir y resolver sistemas de ecuaciones lineales, haciendo abstraccin del tipo de problemas que origina su planteamiento. o Discutir un sistema consiste en averiguar si tiene o no tiene solucin y, caso de tenerla, o saber si es unica o si no lo es. Resolver un sistema es calcular su solucin (o soluciones). Los casos ms sencillos (2 ecuao a ciones con 2 incgnitas, 3 ecuaciones con 3 incgnitas ...) ya se han estudiado en cursos o o anteriores. Aqu an alizaremos el caso general: cualquier nmero de ecuaciones y cualquier , u nmero de incgnitas. u o Denicin 1.9.1. Un sistema de m ecuaciones lineales con n incgnitas es un conjunto de o o expresiones algebraicas de la forma:

48

Algebra Lineal a11 x1 + a12 x2 + + a1n xn = b1 a21 x1 + a22 x2 + + a2n xn = b2 . . . . . . . . . . . . . . . a x + a x + + a x = b m1 1 m2 2 mn n m

Walter Arriaga Delgado

(1.7)

donde: xj son las incgnitas, (j = 1, 2, . . . , n). o aij son los coecientes, (i = 1, 2, . . . , m), (j = 1, 2, . . . , n). bi son los trminos independientes, (i = 1, 2, . . . , m). e Cuando n es pequeo, es usual designar a las incgnitas con las letras x, y, z, t, . . . Obsrvese n o e que el nmero de ecuaciones no tiene por qu ser igual al nmero de incgnitas. Cuando bi = 0 u e u o para todo i, el sistema se llama homogneo. e 2x + y z = 4 Ejemplo 1.9.1. El sistema de ecuaciones x + y + z = 6 3x y = 4 se verica para x = 2, y = 2, z = 2.

1.9.3.

Clasicacin de los sisitemas de ecuaciones lineales o

Los sistemas de ecuaciones lineales de acuerdo a su posibilidad de solucin pueden ser: o I. Sistema Compatible: Es aquel sistema de ecuaciones que si admite soluciones. Estas a su vez pueden ser: a. Sistema Compatible Determinado: Si tienen un nmero limitado de soluciones. u b. Sistema Compatible Indeterminado: Si tienen innitas soluciones. II. Sistema Incompatible: Es aquel sistema de ecuaciones que no admite solucin alguna. o Ejemplo 1.9.2. x + 3y = 10 El sistema 3x + y = 6

, es compatible. Su solucin es {1, 3} y es determinado por o

que slo tienen una solucin. o o x + 3y = 7 El sistema , es incompatible, por que no hay ningn par de valores que u x + 3y = 10 veriquen las ecuaciones.

Walter Arriaga Delgado x y = 6 El sistema 3x 3y = 18

Algebra Lineal

49

, es compatible indeterminado por que tiene innitas solu-

ciones. {0, 6}, {1, 5}, {1, 7}, {2, 4}, . Notacin: El sistema de ecuaciones (1.7) se puede escribir en forma matricial de la siguiente o manera: A.X = B b1 x1 a1n b2 x2 a2n , X = . y B = . . . . . . . . xn bm amn (1.8)

a11 a12 . . . a21 a22 . . . donde: A = . . .. . . . . . am1 am2 . . .

Si en el sistema (1.7) consideramos las siguientes matrices: a11 a12 a1n b1 a21 a22 a2n b2 A1 = . , A2 = . , . . . . . ., An = . , B = . . . . . . . . . . am1 am2 amn bm El sistema se escribir en forma vectorial de la siguiente manera: a A1 .X1 + A2 .X2 + + An .Xn = B En esta notacin, las soluciones de un sistema son los elementos de la forma: o S = (s1 , s2 , . . . , sn ) Rn y se verica la siguiente relacin: A1 .s1 + A2 .s2 + + An .sn = B o 2x y + z = 6 Ejemplo 1.9.3. Consideremos el sistema de ecuaciones lineales: x + 4y 2z = 0 3x 5y + z = 4 2 1 1 A = 1 4 2 es la matriz de coecientes de orden 3 3; y la matriz 3 5 1 1 6 2 0 es la matriz ampliada de orden 3 4. 1 4 (1.9)

tenemos que 2 1 A = 1 4 3 5

El sistema se puede escribir de las siguientes formas:

50

Algebra Lineal 2 1 1 x 6 1 4 2 y = 0 3 5 1 z 4 2 1 1 6 1 x + 4 y + 2 z = 0 3 5 1 4

Walter Arriaga Delgado

Forma matricial:

Forma vectorial:

1.9.4.

Sistemas Equivalentes

Dos sistemas de ecuaciones son equivalentes si toda solucin del primero es solucin del o o segundo y viceversa. (No es necesario que tengan el mismo nmero de ecuaciones). u x + 3y = 6 x + 3y = 6 Ejemplo 1.9.4. Los sistemas: y son equivalentes. 2x y = 5 3x 2y = 7 xy = 2 Ambos son compatibles determinados y su solucin es: x = 3, y = 1. o Denicin 1.9.2. En un sistema de ecuaciones lineales, una ecuacin es combinacin lineal o o o de las ecuaciones del sistema, si se obtiene como resultado de sumar las ecuaciones del mismo previamente multiplicadas por un nmero real. u A continuacin veamos el Teorema fundamental de equivalencia. o Teorema 1.9.1. Si en un sistema de ecuaciones lineales se sustituye la ecuacin i-sima por o e una combinacin lineal de dicha ecuacin y las dems ecuaciones del sistema (siempre que el o o a coeciente que multiplique a la ecuacin i-sima sea distinto de cero), el sistema resultante es o e equivalente al primero.

1.9.5.

Mtodo de Gauss-Jordan. Eliminacin Gausiana e o

Es el mtodo de resolucin de sistemas de ecuaciones lineales, que consiste en llegar a un e o sistema escalonado transformando la matriz ampliada x + y z = Ejemplo 1.9.5. Resolver el sistema 2x + 3y + z = 5x y + 2z = Solucin o Consideramos la matriz aumentada o ampliada asociada al sistema, separando un poco la columna de los trminos independientes: e en una matriz escalonada por las. 1 3 2

Walter Arriaga Delgado 2 3 5 1 1 1 1 1 1 1 1 1 3 = 0 1 3 2 0 6 7

Algebra Lineal 1 1 1 1 1 1 3

51

1 = 0 1 3 2 3 0 0 25 x + y z = 1 Luego, el sistema ha quedado de la siguiente forma: y + 3z = 1 25z = 3 16 12 3 ,y= ,x= . Resolviendo las ecuaciones, comenzando por la ultima queda: z = 25 25 25 Se trata de un sistema compatible determinado. 3x + 3y +11z t = 8 Ejemplo 1.9.6. Resolver el sistema 2x + 5z + 3t x y + 2z + 2t = 4 = 2

Solucin o La matriz ampliada es: 3 3 11 1 8 1 1 2 2 2 1 1 2 2 2 2 0 5 3 4 = 2 0 5 3 4 = 0 2 1 1 0 = 1 1 2 2 2 3 3 11 1 8 0 6 5 7 2 1 1 2 2 2 0 2 1 1 0 0 0 2 4 2 x y + 2z + 2t = 2 Luego, el sistema ha quedado de la siguiente forma: 2y + z t = 0 2z 4t = 2 Resolvemos la ultima ecuacin, z = 1 + 2t; si hacemos t = , queda: o 1 13 1 + ;x= + ; t = . z = 1 + 2; y = 2 2 2 2 Las soluciones del sistema se hallan dando valores arbitrarios al parmetro . a Es un sistema compatible indeterminado. y + z Ejemplo 1.9.7. Resolver el sistema = 2

x + 2y + 4z = 3 2x + 4y + 8z = 1

Solucin o La matriz ampliada es:

52

Algebra Lineal

Walter Arriaga Delgado

0 1 1 2 1 2 4 3 1 2 4 3 1 2 4 3 = 0 1 1 2 = 0 1 1 2 2 4 8 1 2 4 8 1 0 0 0 5 x + 2y + 4z = 3 Luego, el sistema ha quedado de la siguiente forma: y + z = 2 0 = 5 Se observa que el sistema es incompatible.

1.9.6.

Mtodo de Gabriel Cramer e

El mtodo de Gauss que acabamos de ver es sencillo y ecaz para resolver un sistema de e ecuaciones lineales. Pero tiene un inconveniente. Si de un sistema de 300 incgnitas tan slo o o nos interesan 7, siguiendo el mtodo de Gauss, habr e amos de seguir el proceso de triangulacin o como si nos interesaran todas ellas. La regla de Cramer, que ahora veremos, aprovecha con astucia las propiedades de las matrices y sus determinantes para despejar, separadamente, una cualquiera de las incgnitas o de un sistema de ecuaciones lineales. Sistema de Cramer: Es un sistema de la forma (1.7) en el que m = n, y |A| = 0. Es decir, La matriz A es cuadrada y regular. En tal caso, A tiene inversa A1 , por lo que multiplicando a (1.8) por la izquierda por A1 , se tiene: A1 AX = A1 B X = A1 B X= Adj(A) B. |A|

Entonces, para usar la regla de Cramer se debe cumplir las siguientes condiciones: El nmero de ecuaciones es igual al nmero de incgnitas. u u o El determinante de la matriz de coecientes de las incgnitas debe ser distinto de cero. o Denotaremos por: a11 Determinante del sistema: S = a21 . . . a11 Determinante de xj : xj = a21 a12 a22 . . . a1n a2n . .. . . . b1 b2 bn a1n a2n ann

an1 an2 ann a12 a22

an1 an2

Walter Arriaga Delgado

Algebra Lineal

53

xj es el determinante que se obtiene a partir de la matriz de coecientes A, cambiando los elementos de la columna j por los trminos independientes. e La solucin viene dada por: o xj = xj S (1.10) a1 x + b1 y + c1 z = d1 a2 x + b2 y + c2 z = d2 a3 x + b3 y + c3 z = d3

Nota: El el caso de un sistema lineal de 3 ecuaciones con 3 incgnitas: o se tiene: S = Determinante del sistema. x = Determinante de x. Recordemos que: a1 b1 c1 S = a2 b2 c2 ; a3 b3 c3 d1 b1 c1 x = d2 b2 c2 ; d3 b3 c3 a1 d1 c1 y = a2 d2 c2 ; a3 d3 c3

y = Determinante de y. z = Determinante de z.

a1 b1 d1 z = a2 b2 d2 . a3 b3 d3

Finalmente la solucin del sistema se obtiene as o : x= x S ; y= y S ; z= z S

2x + 3y 5z = 8 Ejemplo 1.9.8. Resolver el sistema 5x 2y + z 3x y + 2z = 9 = 9

Solucin o El sistema es un t pico caso en el que resulta conveniente aplicar la regla de Cramer. Primero hallaremos los determinantes aplicando el mtodo de Sarrus: e 2 3 5 1 2 5 1 2 x = 3; S y= y = 4; S z= x = 96 S = 32; 2 8 5 y = 5 9 3 9 2 3 1 2 8 z = 64 y = 128;

S = 5 2 3 1 8 3

x = 9 2 9 1 Luego: x=

z = 5 2 9 3 1 9

z = 2. Por lo tanto el conjunto solucin es: o S

C.S. = {3; 4; 2}

54

Algebra Lineal

Walter Arriaga Delgado

1.9.7.

Teorema de Rouch - Frbenius e o

Sea el sistema dado en (1.7), donde A es la matriz de coecientes de las incgnitas y A la o matriz ampliada con los trminos independientes. e I. La condicin necesaria y suciente para que el sistema sea compatible, es decir, para que o tenga solucin es que el rango1 de A sea igual al rango de A. o a) Si rango de A = rango de A = n, el sistema tendr solucin unica (Sistema compatible a o determinado). b) Si rango de A = rango de A = k < n, el sistema tendr innitas soluciones y depena der exactamente de n k parmetros (Sistema compatible indeterminado). a a I